https://wikiii.de/w_iki/api.php?action=feedcontributions&user=DarkGhost&feedformat=atomII-Wiki - Benutzerbeiträge [de]2024-03-28T23:10:14ZBenutzerbeiträgeMediaWiki 1.35.0https://wikiii.de/w_iki/index.php?title=TODO_6.Semester&diff=7029TODO 6.Semester2009-03-30T13:14:07Z<p>DarkGhost: /* Vertiefungsfächer */</p>
<hr />
<div>__NOTOC__<br />
{{Navigation<br />
|zurücktext=5. Semester<br />
|zurücklink=TODO 5.Semester<br />
|hochtext=Liste der TODOs<br />
|hochlink=TODO<br />
|vortext=7. Semester<br />
|vorlink=TODO 7.Semester<br />
}}<br />
<br />
==Pflichtfächer==<br />
<br />
[http://www.tu-ilmenau.de/fakia/Lehrveranstaltungen.9056.0.html Formale Sprachen und Komplexität] bei Elke Hübel<br />
<br />
==Wahlpflichtfächer==<br />
(betrifft alle Vertiefungsrichtungen)<br />
<br />
===Informatik===<br />
<br />
[[Echtzeitsysteme]] bei [http://www.tu-ilmenau.de/fakia/Lehre.1239.0.html Dr. Kowalski]<br />
<br />
[[Systemtheorie]] bei [http://www.tu-ilmenau.de/fakia/Systemtheorie.9033.0.html Zerbe]<br />
<br />
[[DB-Implementierungstechniken]] bei [http://www.tu-ilmenau.de/fakia/Lehrveranstaltungen.8942.0.html Sattler]<br />
<br />
===Elektrotechnik===<br />
<br />
[[Kommunikationsnetze]] (Vermittlungstechnik) [http://zack1.e-technik.tu-ilmenau.de/~webkn/lehre/index.htm Fachgebietsseite von Prof. Seitz] bzw. direkt zu den Folien [http://zack1.e-technik.tu-ilmenau.de/~webkn/lehre/VermTechKomNet/index.htm Klick!]<br />
<br />
[[Elektronische Messtechnik]] bei [http://www-emt.tu-ilmenau.de/WWW/Courses.php?lang=DE&menustate=%3&courseID=5&mode=details Prof. Thomä]<br />
<br />
[[Hochfrequenztechnik]] bei [http://www.tu-ilmenau.de/fakei/Vorlesung-Hochfreque.1045.0.html Prof. Hein]<br />
<br />
[[Digitale Regelungen]] bei [http://www.tu-ilmenau.de/fakia/Lehre.5331.0.html Prof. (JP) Lambeck]<br />
<br />
==Vertiefungsfächer==<br />
<br />
===KTS===<br />
[[Lernen in Neuronalen Agenten]] bei [http://www.tu-ilmenau.de/fakia/Lernen-in-Neuronalen.6224.0.html Prof. Groß] User: nistudss07 pass: ss07-N!<br />
<br />
Angewandte Neuroinformatik bei [http://www.tu-ilmenau.de/fakia/Angewandte-Neuroinfo.7474.0.html Prof. Groß/Dr. Debes]<br />
<br />
[[Grundlagen der Farbbildverarbeitung]] bei [http://kb-bmts.rz.tu-ilmenau.de/Franke/Lehre1.htm#Farbbildverarbeitung Dr. Franke] [http://www.zbs-ilmenau.de/intern/Vorlesung/vorlesungsskript.html Scripte]<br />
<br />
[[Parallelprogrammierung]] bei [http://www.tu-ilmenau.de/fakia/Parallelprogrammieru.1478.0.html Prof. Philippow]<br />
<br />
[[Softwarequalitätssicherung]] bei [http://www.tu-ilmenau.de/fakia/Softwarequalitaetssi.1479.0.html Prof. Philippow ]<br />
<br />
[[Softcomputing]] bei [http://www.tu-ilmenau.de/fakia/Softcomputing-Fuzz.7491.0.html Dr. Debes]<br />
<br />
===IHS===<br />
[[CAE Entwurf diskret kontinuierlicher Systeme]] bei [http://www.tu-ilmenau.de/fakia/CAE-Entwurf-diskret.5280.0.html Dr. Vangelov]<br />
<br />
[[Rechnernetze der Prozessdatenverarbeitung]] bei [Prof. Fengler]/[http://www.tu-ilmenau.de/fakia/Rechnernetze-der-PDV.3576.0.html Dipl.-Ing. A. Fleischer]<br />
<br />
[[Einchipmikrorechner und Signalprozessoren]] bei [http://www.tu-ilmenau.de/fakia/EMR-und-Signalproz.3582.0.html?&L=1 Dr. Däne]<br />
<br />
[[Rechnerentwurf]] bei [Prof. Fengler]/[http://wcms1.rz.tu-ilmenau.de/fakia/3573.0.html Dr. Däne]<br />
<br />
[[Systementwurf]] bei [http://www.tu-ilmenau.de/fakia/Systementwurf.1711.0.html Dr. Zerbe]<br />
<br />
[[Digitale Regelungen]] bei bei [http://www3.tu-ilmenau.de/fakia/Lehre.5331.0.html Prof. (JP) Lambeck] (kann als Schein in den Studienschwerpunkt eingebracht werden)<br />
<br />
[[Parallelprogrammierung]] bei [http://www.tu-ilmenau.de/fakia/Parallelprogrammieru.1478.0.html Prof. Philippow]<br />
<br />
[[Entwurf und Validierung paralleler Systeme]] bei [http://www.tu-ilmenau.de/fakia/index.php?3254&veranstaltung_id=12&erweitert=0&L=0 diversen Profs]<br />
<br />
[[Systemanalyse]] (Experimentelle Prozessanalyse 2) bei [http://www.tu-ilmenau.de/fakia/Systemanalyse-Expe.4604.0.html Prof. Ament]<br />
<br />
[[Schutz von Kommunikationsinfrastrukturen]] bei [http://www.tu-ilmenau.de/fakia/Schutz-von-Kommunika.6149.0.html Prof. Schäfer]<br />
<br />
[[Projektseminar Simulative Bewertung von Internet-Protokollfunktionen]] bei [http://www.tu-ilmenau.de/fakia/Projektseminar-Simul.6145.0.html Dr. Horn]<br />
<br />
===MI===<br />
[[Biosignalanalyse 1]] bei [http://www.tu-ilmenau.de/fakia/Studiengang-II-Med.1305.0.html Prof. Husar]<br />
<br />
[[Klinische Verfahren der Therapie und Diagnostik]] bei [http://www.tu-ilmenau.de/fakia/Studiengang-II-Med.1305.0.html Dr. Knoth, Gastdozent]<br />
<br />
===MIKS===<br />
[[Wissenschaftlich-Technische Visualisierung]] (Visualisierung und grafische Standards) bei [http://kb-bmts.rz.tu-ilmenau.de/franke/Lehre.htm Priv.-Doz. Dr. Franke]<br />
<br />
[[Multimediale Systeme]] bei [http://www.tu-ilmenau.de/fakia/index.php?id=3254&veranstaltung_id=13 Dr. Wuttke]<br />
<br />
[[Schutz von Kommunikationsinfrastrukturen]] bei [http://www.tu-ilmenau.de/fakia/Schutz-von-Kommunika.6149.0.html Prof. Schäfer]<br />
<br />
[[Projektseminar Simulative Bewertung von Internet-Protokollfunktionen]] bei [http://www.tu-ilmenau.de/fakia/Projektseminar-Simul.6145.0.html Dr. Horn]<br />
<br />
[[Wireless Internet]] bei [http://www.tu-ilmenau.de/fakia/index.php?3254&veranstaltung_id=15&erweitert=0&L=0 Prof. Mitschele-Thiel] (eigentlich erst im 8. Semester)<br />
<br />
[[Multimedia Standards]] bei [http://www.imt.tu-ilmenau.de/%7Ecre/multimediastandards.html Prof. Brandenburg] (eigentlich erst im 8. Semester)<br />
<br />
===ST===<br />
[[Systemanalyse]] (Experimentelle Prozessanalyse 2) bei [http://www.tu-ilmenau.de/fakia/Systemanalyse-Expe.4604.0.html Prof. Ament]<br />
<br />
[[Maschinelles Lernen]] (Wissensermittlung) bei [http://www.tu-ilmenau.de/fakia/Maschinelles-Lernen.4412.0.html Priv.-Doz. Dr. Otto]<br />
<br />
[[Wissensbasierte Systeme]] (in der Automatisierungstechnik 1) bei [http://www.tu-ilmenau.de/fakia/Wissensbasierte-Syst.4419.0.html Dr. Roß] (eigentlich erst im 9. Semester) - [http://omega.theweblords.de/w_iki/images/e/ee/Wbs_full.pdf Script]<br />
<br />
===TKMT===<br />
[[Projektseminar Simulative Bewertung von Internet-Protokollfunktionen]] bei [http://www.tu-ilmenau.de/fakia/Projektseminar-Simul.6145.0.html Dr. Horn]<br />
<br />
[[Antennen]] bei [http://www.tu-ilmenau.de/fakei/Vorlesung-Antennen.1049.0.html Prof. Hein] (eigentlich erst im 9. Semester)<br />
<br />
[[Funknavigation]] bei [http://www-emt.tu-ilmenau.de/WWW/Courses.php?lang=DE&menustate=%3 Prof. Thomä] (Link noch nicht aktuell)<br />
<br />
==Wirtschaftsfächer==<br />
<br />
* [[Einführung in das Recht]] bei [http://www.tu-ilmenau.de/fakww/Einfuehrung-in-das-R.1881.0.html?&no_cache=1 Prof. Weyand]<br />
* [[Grundlagen der Volkswirtschaftslehre]] bei [http://www.tu-ilmenau.de/fakww/Grundlagen-der-VWL.1457.0.html?&no_cache=1 Prof. Söllner]<br />
* [[Unternehmensführung]] bei [http://thales.wirtschaft.tu-ilmenau.de:81/ufue/index.html Prof. von der Oelsnitz]<br />
<br />
==Praktika==<br />
<br />
===Informatik===<br />
(per elektronischer Einschreibung)<br />
*Softwaretechnik (0,25)<br />
*Betriebssysteme (0,25)<br />
*Telematik/ Rechnernetze (0,25)<br />
*Datenbanken (0,25)<br />
<br />
*Integrierte Hard- und Softwaresysteme (2 Versuche) (0,5) wird noch ergänzt!<br />
*Neuroinformatik/Kognitive Robotik (0,75) wird noch ergänzt!<br />
<br />
*Komplexpraktikum Grafische Datenverarbeitung (0,5) noch nicht online; Anerkennung laut Krämer kein Problem; Infos und Aufgaben aus dem SS06: [http://www.tu-ilmenau.de/fakia/Komplexpraktikum.4424.0.html]<br />
<br />
*Praktikaversuche aus dem Grundstudium werden ebenfalls anerkannt, falls diese nicht zum IGP gehörten.<br />
<br />
===Elektrotechnik===<br />
*Systeme im Frequenz- und Zeitbereich (0,2 H3512,Dr. Wolf, Tel. 2619)<br />
*Zeitmultiplex-Übertragungstechnik (0,2 H3502, DI Fuchs, Tel. 1156)<br />
*Transformationen (0,2 H2516, Dr. Schran, Tel. 2637)<br />
*ATM-Technik 1 (0,2 H2512, DI Debes, Tel. 2636)<br />
*Messleitung (0,2 H2552, DI Volmer, Tel. 1578)<br />
*Leistungsverstärker (0,2 H2551, DI Alhouri, Tel. 1580)<br />
*Komplexe Digitale Automaten (0,2 H1556, DI Rommel, Tel. 1170)<br />
*Reaktanz-Siebschaltung (0,2 H2516, Dr. Schran, Tel. 2637)<br />
*Lichtwellenleitertechnik (0,2 H3510, DI Hennhöfer, Tel. 2615)<br />
*Antennen (0,2 H2552, DI Weber, Tel. 1578)<br />
*Nichtlineare Eigenschaften von Verstärkern (0,2 H2552, DI Trabert, Tel. 1592)<br />
*Messung von Empfängerkenngrößen (0,2 H1514, DI Rauschenbach, Tel. 1115)<br />
*Messdatenverarbeitung mit PC (0,2 H1507, DI Algeier, Tel. 1123)<br />
*Kontaktierung in der Mikroelektronik (0,2 H2560, DI Mülln, Tel. 1360)<br />
<br />
==Sonstiges==<br />
<br />
[http://www.tu-ilmenau.de/uni/index.php?id=5179&funccall=1&sgkurz=II&vers=text&studiengang=Ingenieurinformatik&fs=6.FS Stundenplan]<br />
<br />
[https://www.imt.tu-ilmenau.de/lehre/eE_SS07/lstr_browser.php Einschreibebrowser]<br />
<br />
[http://www.fachschaftsrat-ia.tu-ilmenau.de/ Fachschaftsrat-Homepage]<br />
<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Grundlagen_der_Farbbildverarbeitung&diff=7022Grundlagen der Farbbildverarbeitung2009-03-22T15:28:38Z<p>DarkGhost: /* Postrezeptive Wahrnehmung */ typo</p>
<hr />
<div>Link zum [http://www.zbs-ilmenau.de/intern/vip-toolkit/index.php Vip toolkit]<br />
= Einführung (GF_a 8 - 47) =<br />
<br />
== Geschichtliches zur Farbe ==<br />
<br />
=== Newton ===<br />
<br />
* 1672: New Theory about Light and Colours<br />
** Sonnenlicht = Mischung einzelner Farben<br />
** Spektralfarben sind objektive Eigenschaft des Lichtes<br />
<br />
[...]<br />
<br />
=== Goethe ===<br />
<br />
[...]<br />
<br />
== Begriff der Farbe ==<br />
<br />
* '''Farbe im engeren Sinn, stellt eine spezielle menschliche Sinneswahrnehmung dar'''<br />
* <math>\Phi_i = \int_{\Delta \lambda_i} \varphi_{\lambda} (\lambda) d \lambda</math><br />
* Leistungsdichte <math>\phi (\lambda)</math> stellt dagegen den Farbreiz dar, der die Farbempfindung hervorruft<br />
* Vektoren <math>\underline \Phi</math> sind je nach Dimension mehr oder minder genaue Approximationen des Farbreizes<br />
<br />
* Orientierung am menschlichen visuellen System und die Betrachtung psychologischer und physiologischer Grundlagen sind von Interesse:<br />
** zur richtigen Bewertung der Schwierigkeiten und Herausforderungen bei der Schaffung technischer Lösungen<br />
** zur Anpassung technischer Lösungen der Bildwiedergabe an das visuelle System<br />
** zur Nutzung optimaler Naturprinzipien für technische Lösungen<br />
** weil technische Systeme im allgemeinen auf dem inneren Modell des Menschen von der Welt beruhen und dieses Modell in hohem Maße durch den visuellen Kanal des Menschen beeinflusst ist<br />
** weil optoelektronische Sensoren, Bildverarbeitung und Bildanalyse wichtige Schnittstellen zwischen Mensch und Maschine darstellen<br />
**weil viele Objekteigenschaften durch visuelle Eindrücke beschrieben werden<br />
<br />
* menschliches Auge kann ca. 100 Graustufen / ca. 300 000 Farben unterscheiden<br />
<br />
* Drei grundsätzliche Anwendungen von Farbinformation:<br />
** Pseudokolorierung<br />
** Falschfarbendarstellung<br />
** Echtfarbdarstellung (True Color) <math>\rarr</math> hier Schwerpunkt<br />
<br />
== Farbtäuschung ==<br />
<br />
* Zuordnung zwischen Physik und Wahrnehmung nur eindeutig wenn bunte Dinge isoliert betrachtet werden<br />
* Werden bunte Objekte in bunte Umgebungen eingebettet/bewegt, dann können abweichende Farbwahrnehmungen auftreten, so genannte Farbtäuschungen<br />
* es existieren unterschiedliche Arten solcher Täuschungen:<br />
** ''Farbinduktion oder simultaner Farbkontrast'' (Farbe wird durch ihre Umgebung modifiziert)<br />
** ''Farbkonflikt'' (es konkurrieren verschiedene Sehinformationen miteinander)<br />
** ''Subjektive Farben'' (es werden bunte Farbtöne wahrgenommen, die nicht vorliegen)<br />
<br />
'''Simultaner Farbkontrast:'''<br />
* erstmals 1839 beschrieben<br />
* wo der Effekt entsteht (Auge, Cortex) ist unklar<br />
<br />
'''Farbinduktion:'''<br />
* bei kleinteiligen, sich wiederholenden Strukturen erfolgt Angleichung<br />
* kann zur Rauschunterdrückung oder zur Unterdrückung von Feintexturen zugunsten der Erkennung größerer Objekte wichtig sein<br />
<br />
'''Farbkonflikt:'''<br />
* Formen und Strukturen konkurrieren mit Farben ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf White'sche Illusion])<br />
<br />
'''Subjektive Farben:'''<br />
* durch Bewegung ist es möglich Farben zu erzeugen die ursprünglich nicht vorhanden waren ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf Drehwurm in Farbe])<br />
<br />
== Farbwahrnehmung beim Menschen ==<br />
<br />
[...]<br />
<br />
=== Rezeptive Wahrnehmung ===<br />
* 1807 stellte Young die Hypothese auf das Farbsehen auf drei Arten von Sinneszellen beruht (rout,grün,blau)<br />
* erst 1964 konnten dies bewiesen werden, durch die Messung der Absorptionsspektren<br />
*[[Datei:Pdt-kurven.svg]]<br />
<br />
=== Postrezeptive Wahrnehmung ===<br />
* Mit dem 3 Farbenmodell konnten einige psychologische Erscheinungen nicht erklärt werden<br />
** Es werden 4 Farben als besonderst "rein" empfunden (Rot, Gelb,Grün, Blau)<br />
** Unbunte Farben werden werden als das fehlen von Farben wahrgenommen<br />
** Schwarz scheint gleichberechtigt zu Weiß<br />
** keine wahrgenommene Farbe erscheint zugleich rötlich und grün<br />
* das führte zur Gegenfarbentheorie die anfangs nur Psychologisch begründet war 1958 aber physiologisch Nachgewiesen werden konnte<br />
** Rot - Grün<br />
** Gelb - Blau<br />
** Schwarz - Weiß<br />
* → CIELab-Farbraum<br />
<br />
=== Kortikale Kodierung ===<br />
* Weder die 3 Farbentheorie noch die Gegenfarbentheorie beschreiben die bewusste Wahrnehmung des Menschen<br />
* Deshalb erweitertes Modell<br />
** Farbton / Buntton beschreibt die als besonderst rein empfundenen Spektralfarben<br />
** Sättigung beschreibt wie stark eine Farbe verblasst ist<br />
** Helligkeit beschreibt, wie hell oder dunkel eine Farbe ist<br />
* Wo/Wie genau die neuronale Verarbeitung erfolgt, ist noch nicht sicher belegt<br />
<br />
== Die Ordnung in der Welt der Farben ==<br />
* Newton kannte die Wellenlänge noch nicht → er ordnete die Farben nach dem Regenbogen<br />
* Goethe verwendete das Gegenfarbenmodell<br />
* Munsell schlug 1905 ein Farbordnungssystem vor bei dem alle Abstände zwischen den Farben Empfindungsmäßig gleich sind<br />
** führt zu einem geometrisch nicht regelmäßigen Körper<br />
<br />
== Das Modell der Farbe ==<br />
* '''Definition'''<br />
** Farbe ist diejenige Gesichtsempfindung eines dem Auge strukturlos erscheinenden Teils eines Gesichtsfeldes durch die sich diser Teil bei einäugiger Betrachtung mit unbewegtem Auge von einem gleichzeitig gesehenen ebenfalls strukturlos angrenzendem Bezirk allein unterscheidet (unbunte Farben: Schwarz, Weiß und Graustufen, bunte Farben: Helligkeit; Buntheit setzt sich aus Buntton und Farbsättigung zusammen)<br />
** Farbe ist durch Helligkeit, Buntton, Sättigung eindeutig bestimmt → 3D Modell<br />
*** drei linear unabhängige Größen<br />
*** Additive Mischung zur Reproduktion von Farbe (aus Rot, Grün, Blau)<br />
*** drei linearunabhängige Größen spannen immer einen Raum auf → Rot,Grün und Blau werden die Achsen dieses Raumes<br />
<br />
=== Farbvalenz ===<br />
* Mit unserem Modell läßt sich jede Farbe als linearkombination unserer drei Basisvektoren aufschreiben<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
** <math> \vec F</math> ... Farbvalenz<br />
** <math> \vec r, \vec g, \vec b </math> ... die drei Basisvektoren die den Raum aufspannen (Rot, Grün und Blau)<br />
** <math> R,G,B, |\vec F| </math> ... die Farbwerte<br />
** <math> \vec r \cdot R, \vec g \cdot G, \vec b \cdot B </math> ... die drei Primärvalenzen<br />
* Ermittelt werden die Farbwerte mit Hilfe der Vergleichsmethode<br />
** Eine Person vergleicht ein Target mit einer Farbe die aus den drei Primärvalenzen gemischt wird<br />
** wenn die Empfindung der beiden Farben gleich ist, dann notieren wir die Werte<br />
* Innere Farbmischung<br />
** das Target wird mit weißen Licht beleuchtet und wir drehen nur an dem Farbmischgerät<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
* Äußere Farbmischung<br />
** Wir beleuchten das Target mit farbigen Lichte<br />
**<math> \vec F+ B \cdot \vec b = R \cdot \vec r + G \cdot \vec g \rightarrow \vec F = R \cdot \vec r + G \cdot \vec g - B \cdot \vec b</math><br />
<br />
=== Farbreizmetrik ===<br />
* Die Farbreizfunktion <math> \varphi_\lambda</math> beschreibt die spektrale Zusammensetzung der Farbempfindungen<br />
*# Selbstleuchtende Objekte<br />
*#* <math> S_\lambda (\lambda)</math> beschreibt die spektrale Verteilung der Quelle<br />
*#* Wahrnehmung: <math> \varphi_\lambda = S_\lambda</math><br />
*# Auflicht Vorlagen<br />
*#* <math>\beta_\lambda(\lambda)</math> beschreibt den spektralen Remisionsgrad der Vorlage<br />
*#* Wahrnehmung: Licht reflektiert von der Vorlage <math> \varphi_\lambda = S_\lambda \cdot \beta_\lambda</math><br />
*# Durchlichtvorlagen<br />
*#* <math>\tau_\lambda(\lambda)</math> spektraler Transmissionsgrad der Vorlage<br />
*#* Wahrnehmung von Licht welches die Vorlage durchdrungen hat <math>\varphi_\lambda= S_\lambda \cdot \tau_\lambda</math><br />
* Damit haben folgende Faktoren Auswirkung auf die Wahrgenommene Farbe<br />
*# Die Beleuchtung des Objektes (Spektrale Zusammensetzung des Lichtes der Lampe)<br />
*# Das Remmisionsverhalten der beleuchteten Oberfläche<br />
*# Die wellenlängenabhängige Empfindlichkeit der drei Zapfen des Auges<br />
* Es besteht die Möglichkeit die pdt Kurven direkt zur Beschreibung des Farbempfindens zu nutzen<br />
* Die Farbwerte könnte man dann wie folgt ermitteln: <math> \left(\begin{matrix}P\\D\\T\end{matrix}\right)=k\int_{380\mathit{nm}}^{780\mathit{nm}}\varphi (\lambda )\cdot \left(\begin{matrix}p(\lambda )\\d(\lambda )\\t(\lambda )\end{matrix}\right)d\lambda </math><br />
* Für die technische Darstellung von Farbe werden allerdings R,G,B werte benötigt<br />
* Die dafür notwendigen Spektralwertkurven können mit Hilfe der Vergleichsmethode ermittelt werden<br />
* Man erhält damit folgende Kurven<br />
[[Datei:SpektralwertfunktionenRGB.jpg]]<br />
* Mit der gleichen Formel wie bei der pdt Kurve lassen sich nun die R,G,B Werte rechnerisch ermitteln<br />
<br />
== Farbanalyse, Zusammenhang mit der Farbwidergabe ==<br />
* Das Kammera - Monitor System soll die Farbe exakt wiedergeben<br />
* Der Monitor verwendet EBU Phosphore für die Farbdarstellung<br />
** haben selbst Spektralwert kurven => keine Monochromatischen Lichter mehr<br />
* Die notwendigen spektralwertkurven die die Kamera realisieren muss um die Bilder auf dem Monitor exakt darzustellen lassen sich mit Hilfe der pdt Kurven herleiten (Über forderung der Gleicheit der Farben)<br />
* Sie besitzen stark negative Anteile => Auch die Filter der Kamera müssten negative Transsmissionsgrade besitzen<br />
** technisch ist das nicht möglich<br />
* es bleibt also nur die Möglichkeit die notwendigen Parameter zur Ansteuerung des Monitors aus positive one-peak Kurven zu berechnen<br />
<br />
== Subtraktive Farbmischung ==<br />
* Die Subtraktive Farbmischung lässt sich auf die Multiplikation der Transmissionsgrade zurückführen (ein Filter lässt 50% rotes licht durch, wenn man zwei dieser Filter hintereinander legt, dann geht nur noch 25% rotes Licht durch die Anordnung (0.5*0.5 = 0.25) )<br />
* wenn <math> \tau_0 </math> die Transmission eines Filters für die normierte Dicke 1 und die normiert Dichte 1 ist dann kann man<br />
** mit dem Lambertschen Absorbtionsgesetzt die Absortption von dickern/düneren Material berechnen <br> <math> \tau = [ \tau_0]^w </math><br />
*** w ... Dicke des Materials im Verhältnis zum norm Material<br />
** mit dem Beerschen Gesetz die Transmission von Meterial mit anderer Dichte berechnen <br><math> \tau = [ \tau_0]^c </math><br />
*** c... Das Verhältnis der neuen zur alten Dichte<br />
** kann man auch kombinieren zu (Lambert-Beersches Gesetz)<br />
** <math> \tau = [ \tau_0]^{c \cdot w} </math><br />
* Da sich die Transmission Multiplikativ zusammensetzt wird auch gerne mit dem logarithmus der Transmission gerechnet (optische Dichte)<br />
**<math> D = - lg \tau = lg \frac{1}{\tau}</math><br />
** Damit vereinfacht sich das Lambert-Beersche gesetz zu: <math> D = c \cdot w \cdot D_0</math><br />
* selbstverständlich sind die Transmission <math>\tau</math> und die optische Dichte D von der Wellenlänge abhänig ... zur Übersichtlichkeit wurde das in den Formeln nur weggelassen<br />
* Bei einem Papierbild kommt zu dem Filter noch die Reflexion an der Farboberfläche und an der Papieroberfläche<br />
** Beachte das Licht was an der erste Schicht wegreflektiert wird kann icht tiefer eindringen. Nur noch <math> (1-\beta)*S </math> dringt an Licht durch den ersten Filter!<br />
*** <math> \beta </math> ... Remmisionsgrad der ersten Farbe<br />
*** <math> S </math> ... Spektrale Verteilung der Lichtquelle<br />
<br />
= Farbmetrische Schnittstellen - Farbräume (GF a 49 - 55) =<br />
<br />
<pre><br />
Unterschiedliche bildgebende Systeme<br />
z.B. Farbkameras<br />
Farbscanner<br />
Spezialkameras<br />
</pre><br />
'''Widerspruch''' <math>\updownarrow</math> Farbmetrische Schnittstelle<br />
<pre><br />
Unterschiedliche Bildwiedergabesysteme<br />
"True-Color-Darstellung"<br />
- unterschiedliche Monitore, Beamer, Drucker etc.<br />
</pre><br />
<br />
== Leuchtdichte (Luminanz) ==<br />
<br />
* Luminanz Y ist die Strahlungsleistung, bewertet mit der spektralen Empfindlichkeitsfunktion des Auges für das Hellempfinden<br />
* Y ist Leistungsproportional, wenn Lichtzusammensetzung (Leistungsdichte <math>\Theta (\lambda))</math> konstant bleibt<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* Leuchtdichte berechnet sich nach dem ''Abneyschen Gesetz'':<br />
: <math> Y = L = k \cdot \underline L^T \cdot \underline F </math><br />
:* <math>\underline L^T - </math> Leuchtdichtebeiwert: gibt an wie groß der Beitrag jedes Farbwertes der Farbvalenz zum Helleindruck ist, abhängig vom gewählten Farbwiedergabesystem<br />
* Leuchtdichte L <math>\ne</math> Intensität I<br />
: <math> I = \frac 1 3 (R+G+B)</math><br />
<br />
* die perzeptuelle Antwort unseres Auges auf die Leuchtdichte wird Helligkeit (Lightness) genannt<br />
: <math><br />
L^{\star} = \begin{cases}<br />
116 \cdot \sqrt [3] {\frac Y {Y_n}} -16, & \text{wenn } \frac Y {Y_n} > 0{,}008856\\<br />
903{,}3 \cdot {\frac Y {Y_n}}, & \text{wenn } \frac Y {Y_n} \le 0{,}008856<br />
\end{cases}<br />
</math><br />
<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: Eine Quelle die nur 18% der Luminanz einer Referenz hat, erscheint uns immer noch halb so hell wie die Referenz </span><br />
<br />
== Gammakorrektur und Luma ==<br />
* '''Gammakorrektur:'''<br />
** Aufgrund der Ansteuerung von CRT Monitoren und der verwendeten Phosphore ergibt sich ungefähr eine quadratische Abhängigkeit der Luminanz vom Videosignal<br />
** Die Luminaz der drein einzelnen Farbkanäle muss den gleichen Verlauf aufweisen. Sie dürfen sich nur in ihren Maximalwerten unterscheiden!<br />
*** Sonst ist es nicht möglich die Helligkeit zu ändern und dabei die Farbe konstant zu halten<br />
** Die Gammakorrektur sorgt dafür das die Farbwiedergabe auf dem Monitor linear verläuft und nicht quadratisch<br />
*** Notwendig damit wir die gleich Wahrnehmung erzielen können als währe das Kamera-Monitor System nicht vorhanden<br />
<br />
*'''Luma:'''<br />
** Luma ist die gewichtete Summe der drei Gammakorregierten Farbwerte R',G',B'<br />
** Damit ist Luma nicht gleich Luminanz<br />
<br />
*'''Brightness'''<br />
** Brightness ist ein Begriff der beschreibt wie stark eine Fläche Licht emmitiert oder sie hell sie erscheint<br />
** Besitzt kein festes Maß und wird daher sehr frei verwendet -> HSL<br />
<br />
== Farbsysteme, Farbräume, reduzierte Farbräume ==<br />
* Die Intensität einer Farbe ist <math> I = \frac{R + G +B}{3} </math><br />
* Wählt man die Intensität konstant mit <math>I=\frac{1}{3}</math> so ergibt sich eine Ebene die den RGB-Farb Würfel Diagonal schneidet und durch die R,G,B Eckpunkte geht<br />
* Jede Farbkoordinate kann auf diese Ebene projeziert werden -> Ermöglicht die Nutzung dieser Ebene als einfache Farbtafel<br />
** Diese Ebene kann dann noch auf die 0RG- Fläche des RGB Würfels projeziert werden ohne das die Ordnung der Farben gestört werden würde -> Der Farbton einer Farbe lässt sich allein durch r und g beschreiben<br />
* in die rg-Ebene können nun alle in RGB - darstellbaren Farben und alles existierenden Farben eingetragen werden<br />
** Danach erkennt man das sich technisch mit dem RGB-System nur ein kleiner Teil der exisiterenden Farben realisieren lässt<br />
<br />
= Das Normvalenz- oder XYZ-System (GF a 76 - 86) =<br />
* Alle Farbwerte sollen durch positive Farbwerte darstellbar sein<br />
** Für Farbmessung von Interesse<br />
** Das XYZ- Dreieck muss den spektralen Kurvenzug voll umschließen<br />
* Eine weitere Forderung ist das die Leuchtdichte als unabhängige Komponete auftreten soll<br />
* Die Fläche des Dreiecks soll so klein wie möglich sein<br />
* Die dadurch berechnbaren Normalvalenzen sind physikalisch nicht erzeugbar -> Die Spektralwertkurven für das System müssen berechnet werden<br />
** Die Berechneten Spektralwertkurven sind stets nichtnegativ -> immer positive Transmissionsgrade und Sensorempfindlichkeiten<br />
[[Bild:NORMXYZ1.JPG]]<br />
* Mit dem XYZ-System kann man nun Farbdreiecke vergleichen und Bewerten<br />
** Abstände, Fehler und Systemeigenschaften sollten aber in einem empfindungsmäßig gleichabständigen Farbraum bewertet werden (u'v'w' und CIELab)<br />
* '''Optimalfarbkörper'''<br />
** Beschreibt die Grenze aller darstellbaren Körperfarben<br />
** Zur Erstellung schneidet man rechteckförmige Stückchen aus dem Spektrum von Idealweißem Licht aus<br />
<br />
== Das UVW-System ==<br />
* Informationsgehalt der Farbe für den Menschen hängt davon ab welche Farbunterschiede er wahrnehmen kann<br />
* Vor allem ist das interessant wenn Bildverarbeitungsprobleme auf der menschlichen Wahrnehmung formuliert sind<br />
* xy-Farbtafel hat starke Unterschiede zwischen örtlichen Abstenden und empfindungsmäßigen Abständen -> ungeeignet<br />
* erste Lösung<br />
** lineare Transformation<br />
** W' -> Helligkeit<br />
** U' -> Rot-Grün Bundheit<br />
** V' -> Gelb-Blau Bundheit<br />
** Ergebnis<br />
*** Wesentlich besseres Darstellung der Empfindung (Faktor 10 gegenüber dem XYZ-System)<br />
* verbesserte Lösung<br />
** verwenden einer nicht linearen Abbildung (Auge wird mit berücksichtigt)<br />
<br />
== L*a*b* oder CIELAB-Raum ==<br />
* Gegenfarbmodell<br />
* empfindungsmäßig gleichabständiger Raum<br />
* Grundsätzlich zur Angabe von Farbabweichungen verwendet<br />
** Geeignet zur Bewertung von Druckern, Monitoren und Abweichungen von Nachfärbungen<br />
* als Farbdifferenzmaß wird der euklidische Abstand benutzt (<1 nicht mehr Wahrnehmbar)<br />
<br />
== L*u*v* oder CIELUV ==<br />
* für additive Mischung vorgesehen<br />
* wie der CIELAB- Raum ein empfindungsmäßiger gleichabständiger Raum<br />
<br />
== YCbCr - Crominanzwertsystem ==<br />
* Entwickelt damit Farbfernsehen und S/W-Fernsehen Parallel betrieben werden konnten<br />
* Crominanzwerte<br />
** sind von Leuchtdichte befreite Werte<br />
** verschwinden für alle unbunten Farben<br />
** Cr= R-Y, Cg = G-Y, Cb = B-Y<br />
** Das System aus CrCbCg und Y ist überbestimmt => Es reicht die Übetragung von Cr , Cb und Y<br />
* Da das Auge auf Helligkeitsunterschiede empfindlicher reagiert als auf Farbunterschiede können die Crominanzwerte mit geringerer Auflösung übertragen werden<br />
<br />
== ΘSY - System ==<br />
* Der Bunttonwinkel Θ berechnet sich aus dem Verhältnis der Crominanzwerte Cb und Cr<br />
* Die Sättigung S ist der Betrag des Vektors CrCb<br />
<br />
== HSI - Farbraum ==<br />
* Intensität: <math> I= \frac{R+G+B}{3} </math><br />
* Sättigung: <math> S = 1 - 3 \cdot min (r,g,b) </math><br />
* Hue: <math> H= \left\{ \begin{matrix}\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B\le G \\ 2\pi -\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B>G \end{matrix}\right . </math><br />
* Raum ist nicht gleichmäßig gefüllt<br />
* bei kleinen Intensitäten I in Buntton und Sättigung Instabil<br />
* Es kann bei Farbmanipulationen dazu führen das es keine Entsprechungen im RGB gibt<br />
** Lösungen:<br />
*** Dachförmige Begrenzung des HSI Raums -> sehr Aufwendig<br />
*** Normieren der Intensitäten -> Bild kann ins dunkle verschoben werden<br />
*** Maximalwert setzen -> Falsche Farbwerte (werden ins unbunte verschoben)<br />
*** proportionales skalieren bis Farbe im RGB-Würfel liegt<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
<br />
== HSL - Farbraum ==<br />
* Gern für Computergrafik verwendet<br />
* einfache Beziehungen<br />
* Die Verwendeten Biegriffe H,S,L entsprechen nicht der Bedeutung in der Farblehre und Form des Raumes<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
* Buntton ist extrem instabil bei kleinen Sättigungen<br />
* Form des Raumes ist unpraktisch<br />
<br />
= Farbmessung (GF 1 - 11) =<br />
<br />
* Farbmessung = Ermittlung der drei zu einer Farbvalenz gehörigen Farbmaßzahlen<br />
* 3 Messmethoden: <br />
** Vergleichsmethode oder Gleichheitsverfahren<br />
** Spektralverfahren<br />
** Dreibereichsverfahren<br />
<br />
== Gleichheitsverfahren ==<br />
<br />
* Vergleiche:<br />
** Vorlage mit additivem Gemisch<br />
** Vorlage mit Farbmusterkarten (DIN-Karten)<br />
* unverzichtbar bei physiologischen Untersuchungen<br />
* aufwendig und bei kleinen Probandengruppen ungenau<br />
* d.h. für technische Messungen ohne Bedeutung<br />
<br />
'''Messbedingungen nach DIN:'''<br />
* helladaptiertes und blendfreies Sehen<br />
* unbunter Messraum<br />
* neutrale Gesichtsfeldumgebung mit gleicher oder etwas kleinerer Leuchtdichte als im Messfeld<br />
* gut ausgeruhtes und neutral gestimmtes Auge<br />
* farbnormalsichtiger Beobachter<br />
<br />
== Spektralverfahren ==<br />
<br />
* zu messende Farbvalenz = Summe spektraler Farbvalenzen<br />
* greift auf gemessene Normspektralwertkurven zurück<br />
<br />
# '''spektrale Messung zur Ermittlung der Farbreizfunktion <math>\varphi (\lambda) </math>'''<br />
#* Selbststrahler: direkte Messung der Strahlungsfunktion <math>\rightarrow \varphi (\lambda)= S (\lambda)</math><br />
#* remittierende Vorlage: Remissionsfunktion der Vorlage messen, d.h. Strahlungsfunktion S ist vorher zu bestimmen und aus <math>\varphi (\lambda)</math> heraus zu rechnen <math>\rightarrow \varphi (\lambda)= \beta (\lambda) \cdot S (\lambda)</math><br />
# '''farbvalenzmetrische Auswertung'''<br />
#* wenn <math>\beta (\lambda)</math> ermittelt wurde, kann jede beliebige (tabellierte) Lichtquelle <math>S^{\ast} (\lambda)</math>eingesetzt werden<br />
#: <math><br />
\begin{bmatrix}<br />
X\\Y\\Z<br />
\end{bmatrix}<br />
= k \cdot<br />
\begin{bmatrix}<br />
\int \bar{x} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{y} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{z} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda<br />
\end{bmatrix}<br />
</math><br />
#* Normierungskonstante k:<br />
#** Selbststrahler: nur Farbwertanteile gefragt, d.h. k ist beliebig<br />
#** Körperfarben: Y für mattweißen Körper = 100, d.h. <math>k=\frac{100}{\int {S(\lambda) \cdot \bar{y}(\lambda) d \lambda}}</math><br />
<br />
'''Messgeometrien:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bildergalerie (45°,8°,Transmission) </span><br />
<br />
* ''45°-Geometrie'': Beleuchtung unter 45° schließt Glanzeinfluss aus <math>\rightarrow</math> Sensor blickt senkrecht auf Probe<br />
* ''8°-Geometrie'': Beleuchtung diffus über Ulbricht-Kugel <math>\rightarrow</math> Sensor blickt unter 8° auf Probe; Messung mit/ohne Glanz möglich<br />
* ''Transmissionsgeometrie'': Probe wird durchleuchtet<br />
<br />
== Dreibereichsverfahren ==<br />
* die drei Farbwerte werden direkt photometrisch gemessen<br />
* Filter und spektrale Empfindlichkeite der Strahlungsempfänger müssen an die spektrale Bewertungsfunktion angepasst sein<br />
* '''Luther-Bedingung:''' <math> \tau_x(\lambda) = \frac{c_x \cdot x(\lambda)}{s_1(\lambda)}</math><br />
** <math> \tau_x(\lambda) </math> ... Filtertransmission<br />
** <math>s_1(\lambda)</math> ... Sensorempfindlichkeit (hier im ersten Kanal)<br />
** <math>c_x</math> ... Gerätekonstante<br />
** Für den Y und Z Kanal ist die Formel analog<br />
* Der notwendige Filter kann gut durch ein Set von Schmalbandigen Filtern realisiert werden<br />
<br />
== Spektralmaskenverfahren ==<br />
<br />
* spezielles Dreibereichsverfahren<br />
* Lichtzerlegung erfolgt mit einem Prisma<br />
* Das zerlegte Lich beleuchtet eine Maske (Papier, Plaste, Metal .... ne richtige echte Maske)<br />
* Messen der spektralen Verteilung (CCD-Zeile)<br />
* Ähnlich dem Spektralverfahren nur das das spektrum bereits im analogen entsprechend gewichtet wird<br />
<br />
== Metamerie ==<br />
* zwei Farbproben die bei einer bestimmten Beleuchtung gleich aussehen können bei einer anderen Beleuchtung ganz anderst aussehen<br />
* Der Metermarie-Index beschreibt diesen durch Beleuchtungswechsel entstehenden Farbwechsel<br />
* KEIN Maß für die Farbkonstantheit sondern für den Unterschied von zwei Proben<br />
* Berechnung erfolgt im L*a*b* Raum <br> <math> M_T = \sqrt {(L_{1T}-L_{2T}+L_{2B}-L_{1B})^2 +(a_{1T}-a_{2T}+a_{2B}-a_{1B})^2+(b_{1T}-b_{2T}+b_{2B}-b_{1B})^2 } </math><br />
** T ... Testlicht<br />
** B ... Bezugslicht<br />
** 1,2 ... Probennummern<br />
<br />
= Klassifikation von Messaufgaben (GF 82 - 86) =<br />
<br />
# Messung von objektiven Eigenschaften, die sich in der Veränderung spektraler Charakteristika niederschlagen<br />
#* vordergründig ist Zusammenhang zwischen Veränderungen in den physikalischen Eigenschaften von Interesse (z.B. Waferinspektion)<br />
#* Zusammenhang sollte eindeutig und von hinreichender Empfindlichkeit sein<br />
#* Wahrnehmung unterschiedlicher Farben eher Nebeneffekt<br />
# Überwachung der Stabilität von farblichen Erscheinungen<br />
#* ist bei einer oder mehreren Beleuchtungen zu überwachen<br />
#* absolute Farbmessung nicht nötig; "Anlernen" auf Farben genügt<br />
#* Abstände im Farbempfinden müssen sich in gleicher Weise in Veränderungen der Sensorsignale wiederspiegeln<br />
# absolute Farbmessung<br />
#* d.h. Ermittlung der korrekten Farbvalenz unter beliebigen Messbedingungen<br />
#* Spektralwertkurven müssen realisiert werden<br />
# Messung des spektralen Remissions- und/oder Transmissionsverhaltens von Materialien<br />
#* ausschließlich spektrale Messverfahren<br />
#* Messung der Strahlungsfunktion und der remittierten Leistungsdichte<br />
#* Berechnung der Farbvalenz bei beliebiger Beleuchtung und des Metamerie-Index<br />
<br />
'''steigende Ansprüche mit steigender Nummerierung'''<br />
<br />
= Einfache Farbkalibrierung (GF 16 - 41) =<br />
* Farben sollen möglichst exakt Wiedergegeben werden<br />
<br />
== Ausgleich von Beleuchtungseinflüssen ==<br />
* Körperfarben werden durch ihre Remmision bestimmt <math> \beta </math><br />
* Bei unterschiedlicher Beleuchtung sehen Farben unterschiedlich aus aber das Auge kann sich an die Beleuchtung adaptieren<br />
** Funktioniert bei Fotos aber nicht -> Beleuchtungsausgleich ist wichtig<br />
** Bei Farbvergleich noch viel mehr<br />
** Wird realisiert durch Weißabgleich (auf integraler Farbebene nicht möglich )<br />
* Direkte Vermessung der spektralen Eingenschaften der Kamera nicht möglich (Da Werte in Kamera bereits verrechnet werden um z.B. die negativen Anteile der Spektralkurven zu realisieren)<br />
** sehr Aufwendig (Kamera auseinanderbasteln um an die echten werte zu kommen + das durchgehen durch das Spektrum in kleinen Schritten)<br />
* Daher Verwendung von Testfarben<br />
** Führt auf Lösung eines linearen Gleichungssystem<br />
** Für menschliches empfinden -> Optimieren im CIELAB-Raum<br />
* Vorsicht bei nichtlinearen Funktionen zur Farbkalibrierung -> Kann bei zu wenig Testfarben zu total falschen Ergebnissen führen !!<br />
<br />
= Color Management (F CM 1 - 20) =<br />
* verschiedene Geräte können verschiedenen Farben darstellen<br />
* verschiedene Geräte verwenden andere Grundfarben zum mischen<br />
* Mit Hilfe von Profilen (Tabellierung der Farbwerteumrechnungen) wird eine Konvertierung der Farben vom Geräteraum in den CIELab Raum bzw umgekehrt durchgeführt<br />
* in den Profilen wird auch vermerkt welche Farben darstellbar sind und welche nicht<br />
* Somit kann man eine "Druckvorschau" auch auf einem Monitor erreichen (natürlich nur für Farben die auf beiden Geräten dargestellt werden können)<br />
** Jedes Mapping der Farben (Gamut-Mapping stellt somit einen Kompromiss dar)<br />
**# Perceptual (Die Farbbeziehungen untereinander werden erhalten) Komprimierung des Gamuts bis er in den zur Darstellung verwendeten passt<br />
**# Colometrisch -> Exakte Reproduktion aller in beiden Gamuts darstellbaren Farben<br />
**## relativ -> weiß wird auf weiß abgebildet und alle anderen Farben relativ dazu<br />
**## absoult farbmetrisch<br />
**# Saturation, alle Farben außerhalb des Zielgamuts werden zugunsten der Sättiung verändert<br />
* Kalibrierung -> Versetzen des Gerätes in einen definierten, reproduzierbaren Zustand<br />
* Charakterisierung -> Modellierung eines Gerätes welches sich ein einem stabilen definierten Zustand befindet<br />
<br />
= Kameras (GF_Ka 1 - 12) =<br />
<br />
'''Einsatzfelder:'''<br />
* ortsaufgelöste Messung von Farbe<br />
* Aufnahme und Wiedergabe von True-Color Bildern<br />
* Aufnahme farbiger oder mehrkanaliger Bilder für die Verarbeitung/Analyse (Qualitätssicherung)<br />
* Photogrammetrische Anwendungen (Lösung des Korrespondenzproblems)<br />
* Radiometrische Anwendungen (Messen im Spektralbereich)<br />
<br />
'''Dreibereichsmessung:'''<br />
* setzt die Trennung von drei sich überlappenden Spektralbereichen voraus, die dann wellenlängenabhängig zu bewerten und zu integrieren sind<br />
<br />
== Dreichip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* optische Kanaltrennung und Bewertung<br />
* beste Bildqualität, da hohe Auflösung in allen drei Kanälen<br />
* keinen örtlichen Versatz der Pixel in den drei Farbauszügen<br />
* Filter einfacher und präziser zu realisieren<br />
* befinden sich z.B. als dichroitische Spiegel auf den Strahteilerprismen<br />
<br />
<span style="color:#ee0000;"> \\ Hot-Mirror-, Cold-Mirror-Korrektur????</span><br />
<br />
== Einchip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: doppelte Anzahl grüner Pixel wegen Schärfe, MTF des Auges </span><br />
<br />
* örtliche Kanaltrennung und Bewertung<br />
* Streifen- oder Mosaikfilterstrukturen auf den einzelnen Pixeln zur örtlichen Signaltrennung<br />
* 3 oder 4 unterschiedliche spektrale Auszuüge zur Erzeugung der Farbinformation<br />
* Matrix selbst kann Interline- oder Frame-Transfer-Matrix sein<br />
* kostengünstiger und kleiner als Dreichip-Kameras<br />
* Probleme:<br />
** Farbvalenzen aus örtlich versetzten Auszügen (z.B. Farbsäume an Kanten)<br />
** nicht korrigierbare Fehler aus Nichtlinearitäten und Dunkelsignalen bei der Bildung von Mischsignalen<br />
<br />
'''generelle Anforderungen an die Signalverarbeitung:'''<br />
<br />
* primäre Kamerasignale stellen keine farbmetrische Schnittstelle zur Verfügung, d.h. alle Bewertungsfunktionen sind nicht-negativ (Spektralwertkurven fordern aber negative Wichtungen)<br />
* je nach realisierten Filtern und Genauigkeitsansprüchen <math>\rightarrow</math> lineare Matrizierung (meist Kameraintern) oder komplexere Approximation<br />
* bei hohen Genauigkeitsansprüchen <math>\rightarrow</math> Umgehung der Kamerainternen Matrizierung, weil Verstärkungsfaktoren, Toleranzen, Temperaturdrift, Langzeitstabilität etc. nicht bekannt sind<br />
* insgesamt geringe Nichtlinearitäten der CCD's können in den Ansteuerbereichen der einzelnen Kanäle zu wesentlichen Fehlern führen:<br />
** Farbvalenz ändert sich kontinuirlich mit der Shutterzeit<br />
** Pixelweise DSNU- (Dunkelsignalungleichförmigkeit) und PRNU- (Hellsignalungleichförmigkeit) Korrektur vor Erzeugung der Farbvalenz erforderlich, da sich Festmusterrauschen nicht nur auf Intensität sondern auch auf Farbart auswirkt<br />
** Dunkelsignal verdoppelt sich alle 7K, Gleichanteil wird aber geklemmt<br />
** Lichtquellentyp und Langzeitverhalten wirken sich nicht nur Intensität sondern auch auf Farbtemperatur aus<br />
<br />
'''4 spektrale Bereiche:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* vorteilhaft zur Erzeugung von Farbdifferenzsignalen für die TV-Kompatibilität<br />
* im Field-Integration-Mode werden Mischsignale gebildet, die die erforderliche Signalkorrektur für hohe Ansprüche behindern<br />
* Nichtlinearität der Ausgangsverstärker wirkt sich auf Korrektur der primären Mischsignale aus<br />
<br />
== Sequentielle Einchip-Kamera ==<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* zeitliche Kanaltrennung und Bewertung<br />
* relativ genaue Approximation der Spektralwertkurven möglich<br />
<br />
== Elektrisch steuerbare Filter ==<br />
<br />
* über die Wellenlängenabhängigkeit der Eindringtiefe der Photonen und die Steuerbarkeit der Tiefe der Potentialmulden der sensoren lassen sich steuerbare spektrale Empfindlichkeiten erzeugen<br />
<br />
= Verarbeitung von Farbbildern (1 - 31) =<br />
* Das unabhängige verarbeiten der Farbkanäle eines Farbbildes führt zu Nebeneffekten wie Farbsäume<br />
* Die höhere Vielfalt des mehrdimensionalen Raumes von Farbbildern kann Vorteilhaft genutzt werden für Pixelklassifikation, Segmentierung <br />
* Abstände, Mittlere Werte und örtliche Veränderungen sind in empfindungsmäßig gleichabständigen Räumen zu definieren und zu bewerden<br />
<br />
== Histogramme und Statistiken für Farbbilder ==<br />
* Farbbilder liefern dreidimensionale Häufigkeitsverteilungen im Farbraum → können als Approximation der entsprechenden 3D-Dichten verwendet werden<br />
* statistische Zusammenhänge zwischen den Kanälen werden in mehrdimensionalen Dichten betrachtet<br />
** Für Handauswertung meist nur 2D-Dichten, wegen der Übersicht<br />
** Für maschinelle Auswertung können diese dichten auch dreidimensional werden<br />
** für die parametrische Darstellung der Cluster werden meist multivariante Gaußverteilungen eingesetzt<br />
*** Einr Gaußverteilung ist für die Beschreibung eines Bildes mit mehreren Objekten nicht geeignet<br />
*** Die Kovarianzmatrix einer solchen "Approximation" kann aber gut zur Einschätzung der Streuung und der Mittelwerte in dem Bild eingesetzt werden<br />
<br />
=== Histogramm - Modifikationen ===<br />
* Contrast Streching, Polygonal Image Scaling, Histogram-Equalisation Siehe [[Grundlagen der Bildverarbeitung und Mustererkennung#homogene Punktoperationen|Grundlagen der Bildverarbeitung]]<br />
* Manipulation kann in verschiedenen Farbräumen ausgeführt werden (RGB,HSI,...)<br />
** In nicht empfindungsmäßig gleichabständigen Räumen muss die Transformation nicht unbedingt zum Ziel führen<br />
==== Manipulation im Farbraum RGB ====<br />
* ist der Farbraum in dem die Daten häufig vorliegen<br />
* Wirkung kann auf Grund der starken korrelation der RGB Werte bei geringen Sättigungen ausbleiben<br />
* Farbverfälschung wenn einzelne Kompontenen unabhänig von einander behandelt werden<br />
* hohes apriori-Wissen notwendig<br />
* wenn Falschfarbdarstellung gewünscht ist kann dies das mittel der Wahl sein<br />
<br />
==== Manipulationen im Farbraum HSI ====<br />
* unproblematisch in Bezug auf Farbverfälschungen<br />
* Zielsetzungen können sich einfacher beschreiben lassen (ähnelt der Beschreibung von Farbe durch den Menschen)<br />
* unabhängige Komponente (Intensität)<br />
* Kontrastverbesserung durch Sättigungsausgleich ohne Farbveränderung möglich<br />
* Stabilitätsprobleme nahe den unbunten Farben<br />
# '''Ausgleich des Intensitätshistogramms'''<br />
#* Werte möglich die keine entsprechung mehr im RGB haben → müssen geeignet herruntergerechnet werden<br />
#* bei kleinen Intensitäten sind die Bunttöne instabil → ausschließen von Veränderungen<br />
# '''Sättigungsausgleich'''<br />
#* Modifikation der Sättigung unter Beibehaltung des Bunttones<br />
#* Bei kleinen Sättigungen und kleinen Intensitäten ist der Buntton instabil → Ausschließen<br />
#* Histogramm über alle Bunttöne ist häufig verschmiert → besser Histogramm über Buntton Segmente<br />
# '''Bunttonausgleich'''<br />
#* Ziel sind Farbfalschbilder um Objekte besser unterscheiden zu können<br />
#* bei zu großen Buntton Änderungen wird die Interpretierbarkeit nur bei homogenen Flächen verbessert, meist wird sie eher verschlechtert<br />
#* Unsicherheit des Bunttons → bei geringen Sättigungen und Intensitäten ist der Buntton auszuschließen<br />
<br />
== segmentgesteuerte Farbvalenztransformationen ==<br />
* Globale Statistiken werden häufig durch nicht interressante Objekte dominiert<br />
* Ausweg ist das Betrachten von Ausschnitten und anwenden der Transformationen auf die Ausschnitte<br />
* erfordert zu erst das Segmentieren des Bildes<br />
<br />
= Referenzfreie Farbadaption auf Basis des 3D-Histogramms (HuS 32 - 39 ) =<br />
* unter bestimmten umständen kann auf eine Kalibrierung der Kamera mittels Referenzfarben verzichtet werden<br />
* Zur Korrektur soll die parametrische Approximation der 3D-Histogramme durch multivariante Gaußverteilungen genutzt werden<br />
== Vorraussetzungen für die Anwendbarkeit ==<br />
* Strukturierte Szene mit mehreren ntürlichen Objekten, die gleichmäßig über den Bunttonwinkel verteilt sind und durchschnittlichen Sättigungsgrad aufweisen<br />
* Langgestreckter SW-Prozess im Vergleich zum Rot-Grün und Blau-Gelb Prozess<br />
<br />
== Vorgehensweise ==<br />
* Korregieren von "vermutlichen" Abweichungen des Bildes in der Unbuntheitsachse<br />
* Dazu Ermitteln der Hauptachsen mit PCA<br />
* Drehen der Hauptachse in den SW-Prozess<br />
* Rücktransformation und Darstellung<br />
<br />
= Histogrammbasiertes Farbmatching(1 - 15) =<br />
* Histogramme sind im 2D Bild invariant gegenüber Rotation, Translation und Maßstab (wenn die Angaben relativ erfolgen !)<br />
* Histogramme sind auch relativ stabil gegenüber moderaten Verdeckungen und 3D-Rotation<br />
* Grobe Quantisierung der Histogramme um Fehlertoleranz zu erhöhen<br />
* Damit können Histogramme zur Objekterkennung eingesetzt werden → Bezeichnet als Color Indexing<br />
<br />
== uniformes Binning ==<br />
* einteilen der Farben in ein gleichverteiltes Histogramm<br />
* Suche in einem Bild den Ausschnitt welcher eine minimale Distanz zum Referenzbild hat<br />
* Als Abstandsmaß verwendet werden die Histogramme genutzt<br />
** Summe der Quadratischen Differenzen (Histogramme als Vektoren betrachtet und dann den euklidischen Abstand berechnet ohne Wurzel)<br />
** Earth Movers Distance (Berechnen was sich wohinverteilt haben könnte ... erfordert die Lösung des Transportproblems)<br />
* einfach aber die Bins ändern sich Sprunghaft, vor allem dann wenn Farben knapp an den willkürlichen Bingrenzen liegen<br />
<br />
== Unscharfe Chroma-Orts-Histogramme ==<br />
* Nachteile des uniformen Binning sollen überwunden werden<br />
* Alle Pixel bekommen eine unscharfe Klassenzugehörigkeit (Binnzugehörigkeit) je nach Abstand zum entsprechenden Binnmittelpunkt (wie bei [[Softcomputing|Fuzzy-C-Means]])<br />
** Ein Parameter ermöglicht dabei die Verunschärfung einzustellen (von total unscharf bis zum festen Binning)<br />
* Auch der absolute Ort der Segmente (aus denen die Histogramme erstellt werden) soll mit verwendet werden<br />
** Dazu wird das Bild in entsprechende Bereiche geteilt (8x8,16x16,...)<br />
** Alle Blöcke werden durchnnummeriert<br />
** Auch hier kommt es zu harten Umbrüchen wenn Pixel knapp an den Grenzen liegen → auch hier verunschärfen<br />
** Welche Indizees haben die Nachbarn? (Nachbarschaft in den Indizees der Blöcke heißt nicht gleich 2D-Nachbarschaft)<br />
<br />
== Cluster mittels Graphenansatz ==<br />
* Ziel ist es:<br />
** Sprunghafte Änderung der Binns zu verhindern<br />
** wenige Merkmale zu verwenden<br />
** Eng beieinander liegende Maxima trotzdem unterscheiden zu können<br />
* Verwendete Bilddaten:<br />
** Farbwinkelhistogramm, wenn Sättigung der Farben ausreichend ist<br />
** Intensitätsdiagramm, wenn Sättigung der Farben zu gering wird<br />
* Vorgehen:<br />
** Jeder Wert im Histogramm zeigt auf den Größten in seiner Nachbarschaft<br />
** Das Maximum zeigt auf sich selbst → Wird Merkmal<br />
** Weiteres Merkmal ist die Fläche die zum Maximum gehört (Nachbarn die direkt bzw. indirekt auf das entsprechende Maximum zeigen)<br />
* Match:<br />
** Finde ein Tupelpaar (Maxima in Referenzhistogram und Suchhistogram mit dem geringsten Abstand)<br />
** Ziehe gemeinsame Fläche von jedem Tupel des Paares ab<br />
** summiere gemeinsame Fläche (?)<br />
** Wiederhole bis sich keine Tupelpaare mehr bilden lassen<br />
** beziehe die laufende Summe auf das Maximum der Summe der ursprünglichen Flächen<br />
<br />
= Störunterdrückung (SU 1 - 16) =<br />
* Für nachfolgende Verarbeitungsschritte ist die Störunterdrückung sehr wichtig<br />
* Verschiedene verfahren der Rauschunterdrückung sind in [[Grundlagen der Bildverarbeitung und Mustererkennung#Lokale Operatoren zur Bildverbesserung (LOa 1 - 44) |BV]] eingeführt worden<br />
<br />
== Störunterdrückung durch Faltungsfilter ==<br />
* Anwendung wird einfach vektoriell durchgeführt (als würde man drei unabhängige Bilder gleichzeitig Filtern wollen)<br />
* es entstehen neue Farbtöne an den Übergängen zwischen Farben<br />
* im HSI Farbraum ist eine getrennte Betrachtung der Farbe und der Sättigung/Intensität möglich<br />
* Buntton ist zyklisch → muss bei der Mittelung beachtet werden<br />
* in der Farbe kann stärker gemittelt werden als in der Helligkeit (Auge nimmt Farbveränderungen schlechter wahr)<br />
* Komplexe Zahlen bieten sich hier als Rechenmittel an<br />
<br />
== adaptive gewichtete Mittelung ==<br />
* detailerhaltende Fähigkeiten von Filtern wegen der Farbsäume besonders von Interesse<br />
* Abstände verkomplizieren sich im Vergleich zu Grauwertbildern (Vektorabstandsmaße, Winkeldifferenzen,...) <br />
* Vorgehen nach dem Berechnen des Abstandes dann wieder Analog zur Grauwertfilterung<br />
<br />
== Medianfilterung ==<br />
* Problem bei der Übertragung des Rangordnungsgedankens auf Vektoren<br />
** Komponentenweises Vorgehen ist nicht geeignet (absolute Farbverfälschungen möglich)<br />
** Suche des besten Vertreters des SETS (wenn der verwendete Media im SET ist werden keine zu falschen Farben gewählt/gesetzt)<br />
*** kleinste Abstandssumme zu allen anderen Pixeln<br />
<br />
== Kombination von Averaging und Medianfilterung ==<br />
* Medianfilter ist gut für Impulsrauschen, schlecht bei Gauß hier ist Average gut<br />
* Bei den Filtern gibt es keinen unterschied zu den Grauwertbildern (unterschied besteht nur in der Realisierung der verwendeten Media/Average Filter nicht in ihrere Kombination)<br />
<br />
== Vektor-Richtungs-Filter ==<br />
* '''Basic Vecotr Directional Filter'''<br />
** Winkel zwischen Farbvalenzen als Distanzmaß<br />
** Ergebnis ist die Farbvalenz mit der kleinsten Winkeldifferenzsumme zu allen Valenzen des Fensters<br />
** Achromatische Rauschkomponenten werden nicht beseitigt<br />
* '''Generalized Vector Directional Filter '''<br />
** Suche nach den besten Vektoren aus Sicht der Richtung<br />
** Medianfilterung der Beträge der Vektoren<br />
* '''Directional Distance Filter'''<br />
** Vermeiden der Ineffizenz des GVDF Filters durch ein gemischtes Distanzmaß (Betrag und Winkel gleichzeitig)<br />
<br />
= Kantendetektion in Farbbildern (1 - 21) =<br />
* Wichtig für Segmentierung, Bildanalyse und Bildverstehen<br />
* [[Grundlagen der Bildverarbeitung und Mustererkennung#Kantendetektion (LK 1 - 38)| Kantenfilter]] bereits aus BV bekannt<br />
# '''Vektrogradient'''<br />
#* Berechnen der Jacobi-Matrix<br />
#* Wurzel aus dem größten Eigenwert ist der Vektorgradient<br />
#* Extrem Rechenaufwendig<br />
# '''Mittelwert der Richtungsableitungen'''<br />
#* Entspricht dem Gradienten im Intensitätsbild<br />
#* Zwei engegengesetzte Gradienten in unterschiedlichen Farben können sich gegenseitig aufheben → der Gradient der dritten Farbe dominiert egal wie klein er ist<br />
# '''Maximaler Gradient'''<br />
#* Suche nach dem Gradienten mit dem größten Betrag<br />
#* Korrelation der einzelnen Gradienten ist nicht von Bedeutung<br />
<br />
= Farbpixelklassifikation (Farbpixelklassifikation 1 - 21) =<br />
* Die Farbvalenzen bilden die Merkmale der Pixel<br />
* Anzustrebende Eigenschaften<br />
** Gute Beschreibung der Klassencluster und gute Trenneigenschaften<br />
** Einfache Belehrbarkeit (Aus Beispielen oder Expertenwissen)<br />
** Echtzeitfähigkeit<br />
** möglichst frühe Stufe der Verarbeitungskette ("Anspruchslosigkeit an das Bild")<br />
** Nutzen von Klassenzugehörigkeitsmaßen<br />
<br />
== optimaler Klassifikator ==<br />
* basiert auf dem Bayes-Theorem<br />
* findet die optimale Klassenentscheidung<br />
* Jeder Datenpunkt wird in die Klasse eingeordnet zur der er am Wahrscheinlichsten gehöhrt und bei der er die kleinsten Kosten für die anderen Klassen verursacht<br />
** Benötigt eine Risikofunktion die Angibt wie groß die Kosten bei Fehlklassifikation zwischen zwei Klassen sind<br />
*** Meist unbekannt und deswegen wird davon ausgegangen das die Kosten für jede Fehlklassifizierung gleich sind<br />
*** Kosten können durchaus auch bei richtiger Klassifikation definiert werden<br />
** Benötigt die Wahrscheinlichkeitsverteilung der Klassen im Raum (Meist unbekannt → Problem)<br />
*** können beliebig sein werden aber meist durch Gaußfunktionen approximiert<br />
*** in der Lernphase werden die Parameter dieser Verteilung geschätzt<br />
* Da Wahrscheinlichkeitsverteilung meist unbekannt ist, wird der Klassifikator ehr genutzt um einen anderen Klassifikator zu bewerten, wenn man eine bestimmt Wahrscheinlichkeitsverteilung festlegt (wie optimal ist der andere Klassifiaktor)<br />
<br />
== Maximum-Likliehood-Klassifikator ==<br />
* im Ansatz wie optimaler Klassifikator<br />
* setzten der Risikofunktion für alle Fehlklassifikationen auf einen konstanten Wert<br />
* verwenden von multivarianten Gaußdichten zur Beschreibung der Klassen<br />
* Entscheidung wird nur noch nach der a posteriori Wahrscheinlichkeit und der Klassen Verteilung gefällt<br />
<br />
== Malanobis-Abstandsklassifiaktor ==<br />
* schränkt den optimalen Klassifikator noch weiter ein im vergleich zum MLK Klassifikator<br />
* Kostenfunktion für Fehlklassifikation ist konstant für alle Fehlklassifikationen<br />
* Die a posteriorie Wahrscheinlichkeit für das auftreten der Klassen sein für alle Klassen gleich<br />
* Die Kovarianzmatrizen der Gaußverteilung der Klassen sind ähnlich<br />
* Damit ist die zuordnung zu den Klassen nur noch vom Abstand zu den Klassenzentren bestimmt<br />
** Abstandsmaß ist die Mahalanobis-Distanz<br />
<br />
== Gaußklassifikator und Kernel-Densitiy-Klassifikator ==<br />
* schränken noch weiter ein<br />
# '''Gaußklassifikator'''<br />
#* keine Kovarianzen mehr in der klassen Verteilung → Kugelförmige Klassenverteilungen<br />
# '''Kernel-Density-Klassifikator'''<br />
#* Spezialfall von Gauß-Mischverteilungen<br />
#* [... was genau der Macht frage ich in der Konsultation mal nach ... im Skript steht nix brauchbares]<br />
<br />
== LUT-Klassifikator ==<br />
* direktes Verwenden der Stichprobenhistogramme<br />
* erforder Closing im Merkmalsraum da nicht alles durch die Stichproben abgedeckt werden wird<br />
<br />
= Clusterverfahren (Farbpixelklassifikation 19 - 29) =<br />
* Ziel ist es komplexe Klassenbeschreibungen durch mehrere parametrische Einzelcluster zu approximieren<br />
* Beliebig komplexe Klassenformen lassen sich so Speichereffizient beschreiben<br />
* trotz Komplexer Beschreibung bleibt eine weiche Klassengrenze möglich<br />
<br />
== Erzeugen der Cluster ==<br />
=== Radiusrestriktionsmethode ===<br />
* keine Startpartition erforderlich<br />
* indirekte Optimierung: Zielfunktion dient nur der Bewertung der fertigen Partition<br />
* Ablauf:<br />
*# Erstes Element initialisiert das erste Cluster<br />
*# Alle Elemente werden einem Cluster zugeordnert wenn der Abstand zum Clusterzentrum unterhalb eines bestimmten Wertes liegt<br />
*# Für alle Elemente die damit ausserhalb der Cluster liegen wird ein neuer Cluster angelegt<br />
*# Wichtig ist eine gute Radiusschätzung der Cluster (Varianz der Stichprobe durch Anzahl der gewünschten Cluster)<br />
*# als Gütefunktion nutzt man die Quadratische Abweichung von den Clusterzentren<br />
<br />
=== Minimaldistanzmethode ===<br />
# Ausgangspunkt ist eine nur die Radiusrestriktionsmethode erstellte Partition<br />
# Alle Klassen Mittelpunkte werden neu Berechnet<br />
# Berechnen einer neuen Minimaldistanzpartiton anhand einer gewählten Metrik<br />
# Ein Abbruchkriterium entscheidt über das weitere vorgehen<br />
#* Kriterium für Partition ist besser geworden → mache Weiter<br />
#* Anzahl der Interationschritte überschritten → Abbruch<br />
#* Anzahl der Interationschritte noch nicht überschritten && Kriterium für Partition ist gleich geblieben → mache weiter<br />
#* Kriterium für Partition ist schlechter geworden → breche ab<br />
<br />
=== k-Means-Austauschverfahren ===<br />
# Ausgangspunkt ist eine Startpartition<br />
# Merkmalsvektoren umgruppieren wenn die distanz zu einem anderen Klassenzentrum kleiner ist als zum aktuellen<br />
# Neu berechnen der Klassenmetriken<br />
# Abbruch wenn anzahl der Interartionsschritte überschritten ist oder keine Umgrupierung mehr erfolgt<br />
* Meist eingesetzt wird die Mahalanobis-Distanz → Hypereliptische Cluster die sich wunderbar eignen langgestreckte Verteilungen zu approximieren<br />
= Trennfunktionsklassifikatoren (Farbpixelklassifikation 30 -39) =<br />
* Bei gegen Null gehenden Verteilungsdichten trangen weit entfernte Regionen keine Aussagekraft mehr → daher ist es Angebracht eine Rückweisungsklasse einzuführen<br />
<br />
== Mahalanobis ==<br />
* Verwenden der Mahalanobis-Distanz zur Klassifikation<br />
* wenn die Hauptdiagonale der Kovarianzmatrix >> als die restlichen Matrixelemente<br />
** Vereinfachung des Distanzmaßen möglich zu einem achsenparallelen Elipsoiden<br />
* wenn Streuung der einzelnen Merkmale gering ist vereinfacht sich der Ellipsoid zu einer Kugel (euklidisches Abstandsmaß)<br />
* wenn Streuung in den Klassen etwa gleich Groß ist können die Klassenspezifischen Skalierungen entfallen<br />
<br />
== Hyperquader-Klassifikation ==<br />
* Zur Zuordnung sind nur noch Intervalltests notwendig<br />
* Sehr grobe approximation der Klasse da meist elliptische Datenverteilungen auftreten<br />
* Funktioniert gut bei dekorrelierten Merkmalen → achsenparallele Ellipsen<br />
* schnell und einfach<br />
* kann eingesetzt werden um die Überlappung von Klassen zu abzuschätzen<br />
<br />
== Decision-Tree-Klassifikator ==<br />
* Verwenden einfacher Schwellen zur Abgrenzung der Klassen<br />
* Klassenbeschreibungsräume werden durch meherere Grenzen beschrieben<br />
* Effiziente Beschreibung erfolgt mit Bäumen<br />
<br />
== Linear Klassifikator → Hyperebene ==<br />
* Trennen des Merkmalsraumes mittels Hyperebene in zwei Halbräume<br />
* Separierbare Zweiklassenprobleme sind damit lösbar<br />
* Nichtlineare Klassengrenzen können stückweise lineare Aproximation mit mehreren Teilebenen gelöst werden<br />
* mittels Gradientenabstieg wird die Hyperebene angepasst<br />
* Eeiterentwicklung ist die SVM<br />
<br />
== Support Vector Machines ==<br />
* Maximierung des Abstandes der Trennebene von den Klassenrepresentanten<br />
* Transformation in einen höherdimesnionalen Raum um linear sepparieren zu können<br />
<br />
== k-Nächster-Nachbar-Klassifikator ==<br />
* Klassifikation erfolgt nach dem Abstand zum nächsten Klassenrepresentanten aus der Stichprobe<br />
* Metrik kann beliebig gewählt werden<br />
<br />
= Neuronale Klassifikatoren (Farbpixelklassifikation 40- 45) =<br />
== Multi-Layer-Perzeptron ==<br />
* entspricht der Vernküpfung mehrerer linearer Klassifikatoren <br />
* i.a. zwei Hiddenschichten mit Fermi-Ausgabefunktion<br />
* Anlernen ist aufwendig<br />
* Stabilitäts-Plastizitäts-Dilemma<br />
* Gegenbeispiele fürs Training notwendig ... meist aber nicht vorhanden → Problem<br />
* Vollständige Verkopplung der Hiddenschicht<br />
<br />
=== Modulare Netzwerke ===<br />
* wie MLP nur das die Hiddenschicht nicht vollständig verkoppelt ist<br />
* Ausbildung von Segmenten die sich auf spezielle Merkmale spezialisiert werden<br />
<br />
== RBF-Netzwerke ==<br />
* Bestehen aus Eingabe, RBF und Ausgabeschicht<br />
* Jeder RBF-Knoten hat eine Position im Merkmalsraum<br />
* Aktivierung durch Abstände im Merkmalsraum unter Berücksichtigung der RBF<br />
* Zusammensetzen der Klassenregionen<br />
<br />
== Self Organizing Feature Maps (SOFM) ==<br />
* Nur Input/Output Schicht<br />
* Abbilden eines Hochdiemesnioinalen Raumes auf einen niederdimensionalen<br />
* Ähnliche Muster werden auf benachbarte Neuronen abgebildet<br />
* Selbsständiges erkennen der Struktur der Klassen<br />
* Bestimmen des Best Matching Neurons mittels abstand<br />
* Anpassen der Gewichte erfolgt beim Training nach dem Abstand<br />
** Anfangs werden benachbarte Neuronen mit trainiert um Nachberschaft zu erhalten später dann nicht mehr<br />
<br />
= Segmentierung (Seg 1 - 8) =<br />
* Ziel: Tiefgründige Bildinhaltsanalyse<br />
* Siehe auch: [[Grundlagen der Bildverarbeitung und Mustererkennung#Segmentierung von Bildern (RS 1 - 15) | Grundlagen der Bildverarbeitung und Mustererkennung]]<br />
* Zur Eignung welche Merkmale sich besonderst eignen und welcher Farbraum besonderst gut ist gibt es widersprüchliche Aussagen<br />
* Daher sollte immer ausprobiert werden welches der Merkmale am geeingnetsten ist für eine bestimmte Aufgabe<br />
== Hierarchische Segmentierung ==<br />
* Maskieren bereits Segmentierter Bildbereiche (werden ausgeblendet)<br />
* Für den Rest beste Unterscheidungsmerkmal suchen um weitere Segmente abzutrennen<br />
** Pixelklassifikation und normale Segmentierung wie bei GW -Bildern<br />
* wiederhole bis das ganze Bild segmentiert ist<br />
<br />
<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Systemtechnik_der_Bildverarbeitung:Fragenkatalog&diff=7021Systemtechnik der Bildverarbeitung:Fragenkatalog2009-03-21T10:56:33Z<p>DarkGhost: /* Erläutern Sie das Phänomen des Randabfalls der durch ein Objektiv abgebildeten Strahldichten! */</p>
<hr />
<div>== Technische Sehsysteme ==<br />
=== Nennen Sie Parameter, von denen die notwendige Rechenleistung eines Bildverarbeitungssystems abhängt! ===<br />
* Datenmenge<br />
** Größe des Objektes (z.B. 300mm Si-Wafer)<br />
** Bildauflösung (Strukturen bis 100 nm auf dem Wafer sollen erkennbar sein) -> das bestimmt Anzahl der Pixel auf dem Sensor<br />
** Farbe? Graustufen? Auflösung von Farbe und Graustufen (8 Bit, 4 Bit, ...)<br />
* Geschwindigkeit<br />
** Wie oft sollen Bilder aufgenommen werden, zB 50x pro Sekunde oder einmal pro Stunde?<br />
<br />
=== Schätzen Sie anhand eines selbstgewählten Beispiels aus der Automatisierungstechnik die Größenordnung der notwendigen Rechenleistung ab! ===<br />
* Werkstück aus Box nehmen: 128x128 Pixel, 16 Bit Daten<br />
== Sensoren ==<br />
=== Erläutern Sie die Phänomene „innerer photoelektrischer Effekt“ und „äußerer photoelektrischer Effekt“ ! ===<br />
Innerer: <br />
* Photonen dringen in ein Material, z.B. einen Halbleiter, ein und lösen dort Elektronen aus den Atomen. Somit entstehen freie Ladungsträger. Wird eine Spannung angelegt, ist daher ein Stromfluss möglich. <br />
Äußerer: <br />
* Photonen treffen auf die Oberfläche eines Materials, z.B. eines Metalls, auf und schlagen Elektronen heraus, die dann außerhalb des Materials als freie Ladungsträger zur Verfügung stehen. <br />
* Ordnet man Elektroden um das Material an, kann ein Stromfluss beobachtet werden.<br />
<br />
=== Wie kann man mit Einzelsensoren ortsaufgelöste Bilddaten gewinnen ? ===<br />
* Man nehme zwei rotierende Spiegel deren Roationsachse um 90° gekippt ist<br />
** Bild kann so "abgerastert" werden<br />
** nur vergleichsweise langsame Bildaufnahme möglich<br />
* Nimmt man eine CCD-Zeile zur Aufnahme reicht ein rotierender Spiegel um ein Bild aufzunehmen<br />
* Ein Aufbau mit einem [http://de.wikipedia.org/wiki/Mikrospiegelaktor DMD-Chip] ist auch denkbar<br />
<br />
* Indem man sie über das zu vermessende Objekt bewegt. Beispiel: CCD-Zeile über Müll bewegen zur Mülltrennung. (jaja, eine Zeile ist kein Einzelsensor...)<br />
* günstig da, wo sich das Objekt schon von selbst bewegt, zB aufm Fließband<br />
* Vorteil: Schnelleres Auslesen, damit höhere Bilderfassungsfrequenz - wenn die Beleuchtung stimmt, da die Integrationszeiten klein werden<br />
<br />
=== Erläutern Sie das Grundprinzip von CCD-Bauelementen ! ===<br />
* Anordnung von Einzelsensoren in einer Matrix, jeder dieser Sensoren generiert Elektronen mit innerem fotoelektrischen Effekt<br />
* Ladungen müssen transportiert werden:<br />
** Verschieben von Ladungen durch Aneinanderreihung von Elektroden über Halbleitern -> jede Elektrode erzeugt ein elektrisches Feld<br />
** Elektronen sammeln sich an Elektrode -> Elektronenwolke<br />
** Erzeugen eines höheren Potentials an einer Nachbar-Elektrode veranlasst die Elektronenwolke, sich zu dieser Nachbar-Elektrode zu bewegen<br />
** somit analoges Schieberegister realisiert<br />
** Möglichkeit der mehrstufigen Realisierung<br />
<br />
=== Erläutern Sie die Funktionsweise von CCD-Zeilen ! ===<br />
* Einzelsensoren aneinanderpappen zu einer Zeile, bis zu 10.000 Elemente möglich<br />
* Effizientes Auslesen möglich durch parallele Ausgänge (Multi Channel Strukturen) => bis zu einigen kHz möglich<br />
* sehr kurze Integrationszeiten möglich => gute Beleuchtung<br />
<br />
=== Nennen Sie Vor- und Nachteile von CCD-Zeilen und -Matrizen bei der 2-D-Bilddatengewinnung! ===<br />
Blöde Frage: Vorteile gegenüber welchem Vergleichsobjekt denn?!<br />
Vorteile:<br />
* regelmäßige Anordnung der Einzelsensoren, damit Ortsausflösung implizit gegeben (bei Zeile: Wenn Zeile über Objekt bewegt wird)<br />
* Alle Pixel gleichzeitig ausgelesen, daher kein Verwischeffekt wie bei CMOS, dafür möglicherweise smear <br />
** Vergleiche CMOS: CMOS-Sensoren können wie ein Speicher ausgelesen werden, das heißt es kann über eine Adressierungsmatrix auf jedes Pixel zugegriffen werden. Daher wird jedes Pixel zu einem bestimmten Zeitpunkt ausgelesen, unabhängig von den anderen Pixeln. Liest du z.B. eine Zeile von links nach rechts, kann sich das aufzunehmende Objekt während der Auslesezeit schon weiter bewegt haben und du kriegst Bewegungsunschärfe. Bei Interline Transfer CCD hingegen schiebst du alle Ladungen gleichzeitig in ein Schiebregister, das heißt, die Daten aller Pixel werden gleichzeitig gewonnen. Klar, die Daten werden danach nochmal sequentiell über den ganzen Chip geschoben und erreichen den Speicher hintereinander. Aber die Daten sind zur gleichen Zeit entstanden.<br />
* Einfache Möglichkeit Halbbilder zu erzeugen, indem man einfach 1 Schieberegister für 2 Pixel nutzt<br />
<br />
Nachteile:<br />
* begrenzte Aufnahmegeschwindigkeit: Integrationszeit und Auslesezeit<br />
* Braucht recht komplexe Spannungsversorgung (Viele Verschiedene Spannungen zur Generierung der Potentialunterschiede beim Schieben)<br />
* Komplexes Taktregime notwendig (Takte zum Zeilen- und Spaltenschieben, sowie für Shutterimpulse)<br />
<br />
=== Erläutern Sie die Grundprinzipien von Interline- und Frame-Transfermatrizen! ===<br />
Schiebt man Ladungen durch den Sensor, gibt's smear-Effekte und außerdem dauert's lange, bis neue Ladungen gesammelt werden können. Zwei Ansätze: <br />
<br />
Interline:<br />
* für jedes Pixel ein lichtunempfindliches Schieberegister (oder ein Register für zwei Pixel), in das die Ladungen nach der Integrationszeit rein geschoben werden (parallel für alle Pixel, also sehr schnell)<br />
* dann in Ruhe die Schieberegister auslesen, währenddessen können die lichtempfindlichen Pixel schon wieder Ladungen generieren<br />
* Nachteil: Verringerung der Auflösung/Empfindlichkeit<br />
** umgehen z.B. mit Mikrolinsen, die das Licht, was auf die unempfindlichen Register trifft, auf die empfindlichen Pixel lenkt<br />
*** weiterer Nebeneffekt: drastische Reduzierung von Interferenzerscheinungen durch verschiedene Einfallswinkel<br />
Frame:<br />
* Das Hochschieben der Daten geht recht schnell, was dauert ist das sequentielle Einschieben für das horizontale Rausschieben (oberste Zeile)<br />
* Also: Obere Hälfte der CCD-Matrix abdecken und Daten schnell n den "dunklen" Bereich schieben<br />
* Nachteile: Halbierung der Aufnahmefläche, smear wird nicht beseitigt<br />
* Vorteil: Es können mehrere Bilder auf der abgedunkelten Chipfläche zwischengespeichert werden. Z.B. 3 Bilder speicherbar, wenn nur ein Viertel der Sensorfläche lichtempfindlich ist. -> Nutzbar bei Hochgeschwindigkeitsaufnahmen.<br />
<br />
=== Was versteht man unter einer Shutterkamera? Erläutern Sie das Grundprinzip! Wo kann man solche Systeme sinnvoll einsetzen? ===<br />
* bevor man neues Bild auslesen kann, muss das alte Bild fertig ausgelesen sein - und das kann lange dauern<br />
* also eigentlich keine Integrationszeiten möglich, die kürzer als die Auslesezeit sind<br />
* Lösung: shuttern. <br />
** dabei werden die in den Pixeln generierten Ladungen regelmäßig ins Substrat abgeführt, nur kurz vorm Auslesen werden die Ladungen bis zum Auslesen gehalten.<br />
** sozusagen ein invertierter Refresh ;)<br />
<br />
=== Wie kann man mit Interline-Transfermatrizen videonormgerechte Signale, d.h. nach dem interlaced-Prinzip zur Verfügung stellen ? ===<br />
* Wenn ein Schieberegister für zwei Pixel zur Verfügung steht, kann man bei Bild n Pixel gerader Zeilen auslesen, bei Bild n+1 Pixel ungerader Zeilen<br />
<br />
=== Wie kann man bei CCD-Matrixsensoren Hochgeschwindigkeitskameras realisieren.? ===<br />
* mehrere parallele Ein- und Ausgänge<br />
* mit Frame-Transfer-Matrizen, die mehrere Bilder speichern können (zB 90% des Sensors lichtunempfindlich, nur zum Speichern genutzt)<br />
<br />
=== Welche Vor- und Nachteile haben CMOS-Sensoren gegenüber CCD-Sensoren ? ===<br />
Vorteile:<br />
* Kamera on-a-chip möglich, da Zusatzelektronik direkt mit droffgepappt werden kann<br />
* beliebiges Auslesen der Pixel (ansprechen wie RAM mit Adressierungsmatrix)<br />
* Vorverarbeitung direkt in den Pixeln, z.B. Verstärkung (aktive Pixel) oder logarithmische Kennlinien (angelehnt an Sinnensempfinden des Menschen)<br />
* schnelleres Auslesen, da paralleles Auslesen möglich: n AD-Wandler<br />
* intelligentes Auslesen: Elektronik erkennt von vornherein, wo das zu beobachtende Objekt auf dem Chip abgebildet wird und liefert nur diese Bereiche = kleinere Datenmenge<br />
* kein Blooming<br />
* keine krummen Spannungen und zig Taktgeneratoren, das was gebraucht wird kann auch gleich auf den Sensor mit droff<br />
* billiger<br />
Nachteile:<br />
* stärkeres Rauschen durch mehr analoge Bauelemente (z.B. ein Transistor pro Pixel, mehrere AD-Wandler) => Festmusterrauschen<br />
* Dunkelsignalrauschen ist generell wesentlich temperaturabhängiger aufgrund der vielen integrierten Bauelemente<br />
* Zeilenrauschen nicht so einfach korrigierbar, da mehrere Ausgangsleitungen<br />
* da Pixel zu beliebigen Zeiten ausgelesen werden können, kann es zu Bewegungsunschärfen kommen<br />
<br />
== Multikanal (Farb-) Sensoren ==<br />
=== Was muss man bei der Realisierung von Farbaufnahmesystemen beachten ? ===<br />
* Farbe ist nur im Zusammenhang mit dem menschlichen Sehsystem definiert<br />
** Linearität zwischen Wellenlängenempfindlichkeit der Kamerasensoren und menschlichen Empfindlichkeiten gewünscht<br />
** verschiedene Farbreize können beim Menschen das gleiche Farbempfinden hervorrufen<br />
** Helligkeitsinformation wichtiger als Farbinformationen<br />
** unterschiedliche Empfindlichkeiten für unterschiedliche Wellenlängen, gleich helle blaue LED und rote LED werden nicht als gleich hell empfunden<br />
** Menschen nehmen die Farbe Grün besonders stark wahr<br />
** das alles is auch noch ortabhängig<br />
* Sensoren sind für größere Wellenlängenbereiche als das Auge empfindlich (IR, UV)<br />
* mit drei Farbkanälen können nicht alle Farben dargestellt werden, mehr Kanäle -> höhere Kosten<br />
<br />
=== Geben Sie Möglichkeiten der Aufnahme und Wiedergabe von Farbbildern an! ===<br />
Kamera:<br />
* Aufnahme mit 3 Sensoren, komplizierte und teure Objektive nötig, die das Bild positionsgenau in drei Wellenlängenbereiche (R,G,B) aufteilen<br />
* 1 Sensor, verschiedene Farbfilter, z.B. Rotieren mit Rad<br />
* 1 Sensor mit Pixeln, die empfindlich für verschiedene Wellenlängen sind (Consumer-Technik)<br />
<br />
Wiedergabe:<br />
* RGB Monitor<br />
* CMYK-Drucker<br />
* ...<br />
<br />
=== Welche Möglichkeiten zur Erfassung von Farbinformationen ergeben sich, wenn die Aufgabenstellung Verarbeitung der Farbinformation (Informationsextraktion) und nicht Wiedergabe von Farbbildern lautet. ===<br />
* (1) örtliche Informationen komplett weglassen, dh. nur Spektrum des Bildes aufnehmen<br />
** zum Beispiel um Lacke zu prüfen<br />
** Möglichkeit: mit Prisma Abbildung auf CCD-Zeile, Prisma bricht verschiedene Wellenlängen unterschiedlich stark => Spektrometer / Spektroskopie<br />
* (2) Verzicht auf komplette spektrale Auflösung, nur Teil des Spektrums erfassen (mich interessiert z.B. nur gelb) => Multikanel Vektor Bilder<br />
* Kombination aus (1) und (2), z.B. Farbkoordianten<br />
<br />
=== Erläutern Sie die Unterschiede zwischen 1- und 3-Chip-CCD-Farbkameras? ===<br />
* 3 Farbkanäle: R,G,B<br />
* 3-Chip: <br />
** drei verschiedene CCD-Sensoren mit gleicher Größe benutzen, je einer für R,G und B<br />
** Strahlteilung durch halbdurchässige Spiegel / Prismen oder Kaleidoskopoptik<br />
** Genaue Positionierung der CCDs nötig (im µm Bereich), damit örtliche Verteilung erhalten bleibt<br />
** teuer, aber beste Bilder<br />
* 1 Chip SW:<br />
** Filterrad mit versch. Filtern für verschiedene spektrale Empfindlichkeiten<br />
* 1-Chip RGB:<br />
** Gruppen von jeweils 4 Pixeln werden für verschiedene Farbkanäle genutzt: 1 Pixel R, 2 Pixel G, 1 Pixel B<br />
** Filterung mit Farbfiltern<br />
** Verlust von Auflösung<br />
** Möglichkeit der einfachen Berechnung für YCrCb Farbrum bei Interline-Matrizen: Geschicktes "Addieren" der Elektronen in den Schieberegistern, Subtrahieren mit S&H Schaltungen<br />
<br />
== Kamera ==<br />
<br />
=== Wodurch wird die reale photometrische Auflösung (Anzahl realistischer Graustufen) von CCD-Sensoren bestimmt? ===<br />
* Güte des AD-Wandlers<br />
* Dunkelsignal (zu hohes Dunkelrauschen macht hohe Auflösung des AD-Wandlers sinnlos)<br />
<br />
=== Nennen Sie Parameter, die die Abweichung vom idealen Verhalten bei CCD-Matrizen beschreiben! ===<br />
* Apertur der Pixel - nicht überall gleich empfindlich, außerdem Beeinflussung der Nachbarpixel<br />
* Dunkelsignalrauschen - Ladungsgenerierung ohne Lichteinfall<br />
* Güte des Siliziums (Dotierung, Verunreinigung) nicht überall auf dem Chip identisch => Unterschiede der Empfindlichkeit bei exakt gleichmäßiger Beleuchtung messbar, Abweichungen im bereich 1-3%<br />
<br />
=== Was versteht man unter Transferineffektivität? Wie wirkt sie sich aus? ===<br />
* Beim Schieben der Ladungen werden nicht alle Elektronen bewegt, ein kleiner Teil bleibt "hängen" <br />
** Grund: Abstoßung der Elektronen untereinander<br />
* Daher gehen Informationen über die Leuchtstärke, die auf das entsprechende Pixel wirkte, verloren oder werden fälschlicherweise auf andere Pixel abgebildet (wenn die Elektronen beim späteren Schieben nachkommen)<br />
<br />
=== Was wird mit dem Begriff Shading bei CCD-Kameras erfasst? Wie kann man die Auswirkungen korrigieren? ===<br />
* Objektiv leuchtet nicht den gesamten Bereich des Sensors gleich gut aus, vor allem am Rand<br />
* Lösung: bessere bzw. größere Objektive<br />
<br />
=== Was versteht man unter Smear bei Frame-Transfermatrizen ? Welche Möglichkeiten zur Verminderung werden eingesetzt ? ===<br />
* Ladungen von unten werden nach oben durchgereicht, sie passieren also lichtempfindliche Pixel<br />
* passieren Ladungen aus unbeleuchteten Pixeln beleuchtete Pixel, werden während der Ladungsverschiebung neue Elektronen generiert<br />
* dunkle Pixel werden daher also heller interpretiert, als sie eigentlich sind<br />
* Gesamtbild sieht dann aus wie verwischt -> smear<br />
<br />
== Beleuchtung ==<br />
<br />
=== Nennen Sie einige Anforderungen an Szenenbeleuchtung am Beispiel einer selbst gewählten Bildverarbeitungsaufgabenstellung ! ===<br />
* Angenommen ich will rote von grünen Tomaten unterscheiden, so brauch ich Auflicht, welches sowohl einen Rot, als auch einen Grünanteil beinhaltet.<br />
* Kratzer in Spiegel untersuchen mit Dunkelfeld oder Hellfeld<br />
* Länge eines Werkstückes mit Durchlicht und telezentrischem Objektiv<br />
<br />
=== Welche Rolle spielt die spektrale Verteilung der Strahlung bei der Szenenbeleuchtung für Bildverarbeitungssysteme? ===<br />
* Das Licht enthält z.B. Infrarotstrahlung, die der Mensch nicht sieht, welche aber die Kamera stark stört<br />
** beleuchtet man eine Szene, weil man etwas messen will, nimmt der Sensor auch Informationen über IR-Strahlung auf, die man garnicht sehen kann<br />
** Verfälschung der Messung.<br />
* Manche Strukturen brechen Licht wellenlängenabhägig=> gut für Spektrometer, kann aber auch stören<br />
* Interferenz wellenlängenabhägig<br />
* Lösung: Filter<br />
<br />
=== Erläutern Sie die Grundaussage des photometrischen Grundgesetzes! ===<br />
* Das photometrische Grundgesetz beschreibt den Leistungsaustausch zwischen einer leuchtenden Fläche A1 (mit der Leuchtdichte L) und einer bestrahlten Fläche A2 in Abhängigkeit ihrer Verdrehung im Raum<br />
<br />
=== Welche physikalischen Effekte werden zur Erzeugung von Licht eingesetzt ? ===<br />
* '''Die Glühbirne, was wirklich passiert'''<br />
** Durch das Anlegen eines elektrischen Feldes an den Glühdraht werden die Elektronen im Metall beschleunigt<br />
*** Die Valenzband Elektronen können sich in Metallen frei bewegen → Elektronengas<br />
** Es kommt zu Zusammenstößen der Elektronen mit Elektronen und den Atomrümpfen → der Draht hat einen Widerstand<br />
** Die übertragene Energie der Elektronen an die Atomrümpfe führt dazu das diese eine größere Eigenschwingung ausführen → Die Temperatur des Glühdrathes steigt<br />
** Jeder warme Körper sendet ein kontinuierliches Spektrum an elektromagnetischer Strahlung aus ([http://de.wikipedia.org/wiki/Plancksches_Strahlungsgesetz Plancksches Strahlungsgesetz])<br />
** Ist der Drath genügend heiß so können wir die abgegebene Strahlung im sichtbaren Bereich sehen (nur ein geringer Teil der Strahlung wir in diesem Bereich ausgesendet) → Die Lampe leuchtet<br />
<br />
<br />
Jan's Version:<br />
* Licht durch Glühemmission (z.B. Glühbirnen, Halogenlampen) -> stochastische Bewegung der Elektronen, daher Reibungsenergie mit den Atomen des Glüchdrahtes => Abgabe vieler unterschiedlicher Wellenlängen<br />
** kontinuierliches Spektrum<br />
* Licht durch Stoßionisation (z.B. in Entladungslampen) -> Elektronen stoßen Atome => heben Elektronen kurzzeitig auf höheres Energie-Niveau, beim Rückfallen werden Lichquanten freigesetzt<br />
** diskretes Spektrum<br />
* Licht am PN-Übergang ( in LEDs) -> Rekombination der Elektronen im Valenzband setzt Photonen frei<br />
** diskretes Spektrum<br />
<br />
<br />
Martin's Version:<br />
* Licht durch Glühemmission (z.B. Glühbirnen, Halogenlampen) -> Thermische Energie in den Atomen hebt Elektronen kurzzeitig auf höheres Energie-Niveau und beim Rückfallen werden Lichquanten freigesetzt<br />
** kontinuierliches Spektrum<br />
* Licht durch Stoßionisation (z.B. in Entladungslampen) -> Rekombination der Ionen mit den Elektronen setzen Photonen frei<br />
** diskretes Spektrum<br />
* Licht am PN-Übergang ( in LEDs) -> Rekombination der Elektronen im Valenzband setzt Photonen frei<br />
** diskretes Spektrum<br />
<br />
=== Nennen Sie einige Lampentypen und erläutern Sie die Prinzipien der Lichterzeugung ? ===<br />
* Wärmestrahlung: Material erwärmen, bis es Strahlung im Wellenlängenbereich von Licht abstrahlt, z.B. Elektronen durch Wolframdraht drängeln<br />
** kontinuierliches Spektrum mit hohem Infrarotanteil<br />
* Entladungslampen: Ionisierung von Gasen durch Spannungen, Freisetzung von Photonen.<br />
** diskretes Spektrum, kontinuierlich nur mit Beschichtungen (Anregung von Leuchtstoffen)<br />
* Halbleiter: Rekombination am PN-Übergang, damit wieder die Energieniveaugeschichte<br />
** diskretes Spektrum, kontinuierlich nur mit Beschichtungen (Anregung von Leuchtstoffen)<br />
<br />
=== Nennen Sie Eigenschaften unterschiedlicher Lampentypen ! ===<br />
Glühbirnen:<br />
* Vorteil:<br />
** billig<br />
** breites Spektrum<br />
** einfache Beschaltung<br />
** in jeder Größe herstellbar<br />
* Nachteil<br />
** recht kurze Lebensdauer<br />
** hohe Lichtineffizienz (Dunkelleuchter)<br />
** Spektrum ist temperaturabhängig<br />
** Verdunkeln mit der Zeit, da Wolfram sich am Glas absetzt<br />
* Verbesserung: <br />
** Halogenleuchten - Halogen bindet Wolfram, dadurch werden die Glaswände nicht dunkler. Gleichzeitig bildet sich um den glühenden Wolframdraht eine Wolke, die weiteren Abtrag verhindert (irgendwie :-/ )<br />
** Beschichtung des Glases, was das Austreten der Infrarotstrahlung mindert und somit zu einer Erhitzung des Wendels beiträgt. (Spart Energie)<br />
<br />
<br />
Entladungslampen<br />
* Vorteil<br />
** Teilweise hohe Leuchtstärke (XEON-Licht), vor allem bei Hochdrucklampen<br />
** "Dünnes" Spektrum (kann auch von Vorteil sein, z.B. wenn andere Farben stören würden)<br />
* Nachteil<br />
** Eigentlich nur kleines, diskretes, meist nicht sichtbares Spektrum (Lösung durch Fluriszierende Beschichtung)<br />
** Benötigt etwas komplexere Beschaltung (Elektromagnetische Vorschaltegeräte EVG)<br />
** Nichtlineare Kennlinie<br />
** Nicht beliebig klein baubar, da Elektroden relativ groß sind<br />
** Hochdrucklampen müssen erst "hochfahren" und sind explosionsgefährdet<br />
<br />
<br />
Leuchtdioden<br />
* Vorteil<br />
** Klein und in vielen Farben herstellbar<br />
** Vergleichsweise hohe Lebensdauer <br />
** Geringer Verbrauch bei hoher Leistung<br />
* Nachteil<br />
** Dimmen durch PWM<br />
** Temperaturabhängiges Licht (in Intensität und Wellenlänge)<br />
** recht schmales Spektrum -> Weißes Licht durch RGB-Kombination oder Blaue LED mit Phosphorschicht<br />
** Lassen mit der Zeit an Leuchtkraft nach<br />
** Großteil der Photonen dringen nicht nach außen, weil sie IM PN-Übergang entstehen<br />
=== Was versteht man unter dem Flimmerfaktor von Lampen? Welche Rolle spielt er für CCD-Bildaufnahmesysteme (Zeilen, Matrizen)? ===<br />
* Lampen werden mit Wechselstrom oder gepulster Gleichspannung betrieben, geben daher nicht kontinuierlich die gleiche Strahlung ab sondern mit bestimmter Frequenz -> Flimmern<br />
* CCD: so kurze Integrationszeiten, dass dieses Flimmern die Bildaufnahme beeinflusst<br />
* Abtastung immer zum gleichen Zeitpunkt: kein Problem<br />
* Abtastung zu verschiedenen Zeitpunkten: Bei einem Bild Lampe hell, beim anderen Lampe gerade dunkel: Müst<br />
<br />
=== Wie kann man eine näherungsweise gleichmäßige Ausleuchtung einer ebenen Fläche erreichen? ===<br />
* Durch Punktleuchten mit einem Höhen/Abstands-Verhältnis von 0,82<br />
* Durch Ringleuchten mit einem Höhen/Durchmesser-Verhältnis von (unwichtig)<br />
<br />
== Optische Abbildung ==<br />
<br />
=== Wie wirken sich Modulationstransferfunktion, Verzeichnung, Randabfall von Objektiven auf die resultierenden Eigenschaften eines Bildaufnahmekanals aus! ===<br />
<br />
=== Nennen Sie Anforderungen aus der Bildverarbeitung, die Einfluss auf die Auswahl von Objektiven haben! ===<br />
* Abstand es Objektes zum Sensor => Brennweite<br />
* Größe des Objektes, Größe des Sensors => Abbildungsmaßsstab, Brennweite<br />
* Art der Messaufgabe (hyperzentrisches, endozentrisches oder telezentrisches Objektiv)<br />
<br />
=== Was versteht man unter telezentrischem Strahlengang? Welche Vorteile bringt er? Wie ist er erreichbar? ===<br />
* Öffnungsblende im Brennpunkt der Bildseite -> lässt nur Brennpunktstrahlen durch, die auf Objektseite Parallelstrahlen sind<br />
* keine Verzeichnung des Objektes, unabhängig vom Abstand des Objektes zur Linse -> ideal zur Längenmessung<br />
<br />
=== Erläutern Sie das Phänomen des Randabfalls der durch ein Objektiv abgebildeten Strahldichten! ===<br />
* Am Besten malt man eine Skizze des Optischen Systems. Auf der man sieht dann, dass die Hauptstrahlen alle durch den Linsenmittelpunkt müssen. Dann geht man davon aus, dass die größte Lichtaussendung eines Objektes genau entlang dieses Hauptstrahls am Größten ist. Wenn man jetzt die Objekthöhe besonders hoch wählt, dann sieht man, dass dessen Hauptstrahl in der Bildebene immer weiter von der optischen Achse wegwandert (also nach Unten). Ab einem bestimmten Winkel wird dann der Hauptstrahl nichtmehr auf die Sensorfläche treffen weil er in der Bildebene darunter liegt. Dann wird auch nicht mehr das gesamte Licht auf den Sensor treffen. Ergo: Je steiler der Winkel, desto dunkler werden die lichtpunkte des Objektes auf dem Sensor, was man dann Randabfall nennt.<br />
** Nette Theorie aber folgende Punkte werden nicht erklärt<br />
*** Der Randabfall ist sofort zu beobachten auch wenn sich der leuchtende Punkt nur minimal neben der Optischen Achse befindet (Der Punkt kann also noch locker auf die CCD abgebildet werden)<br />
*** Der Randabfall läßt sich nicht dadurch beheben, dass man die CCD - Größer macht, was ja nach dieser Theorie gehen müsste :)<br />
*** --DarkGhost 16:12, 20. Mär. 2009 (UTC)<br />
* '''Der Randabfall, oder auch das cos^4 Gesetz'''<br />
** Folgende Annahme: Linse ist ideal, keine Blende, keine Lichtverluste in der Optik der Kamera<br />
** Betrachten wir eine Fläche A die gleichmäßig Licht in Richtung Kamera aussendet und sich in der optischen Achse befindet<br />
*** Der Raumwinkel der leuchtenden Fläche ergibt sich damit zu <br> <math>\omega = \frac{d^2}{4 \cdot g^2} \cdot 1sr </math><br />
*** d ... Linsendurchmesser<br />
*** g ... Abstand der Fläche zur Linse<br />
** Wird nun diese Fläche ein Stückchen aus der optischen Achse bewegt ändern sich folgende Dinge<br />
*** Der Raumwinkel wird kleiner (mit <math>cos(\alpha)</math>)<br />
*** Die Fläche verkürzt sich perspektivisch (mit <math>cos(\alpha)</math>)<br />
*** Die Entfernung zur Fläche wird größer <br />
*** Die Linse ist von der Fläche aus gesehen auch nicht mehr Kreisförmig sondern elliptisch<br />
** Daraus lässt sich sich folgendes ableiten<br />
*** [[Datei:Skizze randabfall.svg]]<br />
<br />
*** Für den Lichtstrom in der Optischen Achse gilt: <br />
**** <math>\alpha = 0</math> damit folgt aus dem Photometrischen Grundgesetz für den Lichtstrom<br />
**** <math> d^2\Phi = \frac{L_{e0}\cdot \omega_0}{r^2} dA_Q dA_E </math><br />
*** Verschiebt man nun den Punkt aus der optischen Achse<br />
*** <math> d^2\Phi' = \frac{L_{E0} \cdot \omega_0}{r'} \cdot cos \alpha \cdot cos \alpha \cdot dA_Q dA_E </math><br />
*** <math> r' = \frac {r}{cos \alpha} </math><br />
*** <math> d^2\Phi' = \frac{L_{E0} \cdot \omega_0}{r^2} cos^4 \alpha \cdot dA_Q dA_E </math><br />
*** Ein vergleich mit dem Ergebnis für die optischen Achse zeigt dann das gilt: <br> <math> \Phi' = \Phi_0 cos^4 (\alpha) </math><br />
**** <math>\alpha</math> ... ist der Winkel zwischen Diagonale zur Linse <br />
**** <math>\Phi_0</math> ... Lichtstrom der Fläche in der optischen Achse<br />
**** <math>\Phi'</math> ... Lichtstrom der Fläche unter einem Winkel zur optischen Achse<br />
** Das ganze bezeichnet man dann als Randabfall<br />
** selbst bei Lichtverlust in der Optik und Blende bleibt der Haupteinfluss beim <math>cos^4</math> Gesetz<br />
[[Datei:Cos4.png]]<br />
<br />
=== Für welche Abbildungsverhältnisse sind Fotoobjektive prädestiniert? Welche Probleme sind beim Einsatz für die digitale Bildverarbeitung zu beachten? ===<br />
<br />
== Bildverarbeitungssysteme ==<br />
<br />
=== Warum steht bei Bildverarbeitungssystemen die Forderung nach einem eigenständigen Bilddatenbus? ===<br />
* große Datenmengen, meist streng strukturiert<br />
* hohe Echtzeitanforderungen, daher hohe Übertragungsrate gewünscht, bestenfalls isochron<br />
* Möglichkeit der parallelen Verarbeitung<br />
* ein Datum idR klein, 8 Bit zB<br />
<br />
=== Welche Forderungen sind an analoge Bilddatenkanäle (on-chip-Verstärker, ..., Vorverstärker für ADU) zu stellen? ===<br />
* geringe Temperaturabhängigkeiten<br />
* gutes Rauschverhalten<br />
* hoher Anspruch an Linearität<br />
<br />
=== Was versteht man unter Auflösung und was unter Genauigkeit eines ADU? ===<br />
Auflösung:<br />
* ja wie viel Bit die Möhre halt hat ;)<br />
Genauigkeit:<br />
* Güte der Diskretisierung des Wertebereichs<br />
* SNR<br />
<br />
=== Welche Forderungen sind an Bilddatenausgabegeräte (Visualisierung über Monitor) zu stellen? Ordnen Sie dabei Unterschiede zwischen interaktiver und automatischer Bildverarbeitung ein! ===<br />
Martin's Theorie:<br />
* Bei automatisierungsteschnischen Prozessen reicht es, wenn ich dem Bediener ein aufbereites, meinetwegen tausendmal gefiltertes Bild darstelle um dem "Experten" eventuell zu erklären, weshalb mein System diese Klassifikation getroffen hat. <br />
* Bei einer interaktiven Bildverarbeitung muss also der Bediener entscheiden, wie der nächste Schritt zu erfolgen hat. Daher brauch ich ein hochaufgelöstes Bild, was auch etliche Sekunden angezeigt werden muss.<br />
<br />
=== Welche Architekturmerkmale von µ-Prozessoren sind für die Bilddatenverarbeitung von größerem Interesse? ===<br />
* viele Register, Cache<br />
* Vektor-Rechenwerke, zB SSE, MMX<br />
* viele Datenwege (Speichercontroller aufm Die, HT-Link usw)<br />
* hohe Flexibilität bezüglich Zusatzhardware (HW für PCI, RAM erweitern usw.)<br />
* breite Verfügbarkeit, Preis (Massenproduktion)<br />
<br />
=== Wodurch sind moderne Bus-Systeme der µ-Rechentechnik gekennzeichnet? Welche Parameter sind für die Bildverarbeitung besonders interessant? ===<br />
* hoher Datendurchsatz, geringe Zugriffszeiten, Parallelität (Pipelining, SMT)<br />
* mehrere Busse parallel, zB bei Speicher: Zugriff auf Speicher (Daten reinfüttern) lähmt CPU nicht<br />
* hohe Datenmengen durch Bilder erzeugt => müssen transportiert werden<br />
<br />
=== Welche Eigenschaften zeichnen µ-Controller gegenüber µ-Prozessoren aus? ===<br />
µ-Prozessoren:<br />
* ursprünglich für Steuerungsaufgaben entwickelt, daraus entwickelten sich Heimrechner<br />
* daher große Vielfalt an Software und Hardware, auch ausgereift durch viele Beta-Tester<br />
* einfache Mensch-Maschine-Kommunikation<br />
* viele Zusatzbauelemente benötigt (Board, gRaka, taktgeber)<br />
* sehr begrenzte Echtzeitfähigkeiten von Soft- und Hardware<br />
* kurze Lebensdauer / Verfügbarkeit der Bauteile<br />
* Standard-PCs nicht für Industrie-Einsatz geeignet, Industrie PCs laut, teuer, stromhungrig<br />
=> Geeignet für Systeme mit hohem Anteil an Mensch-Maschine-Kommunikation<br />
<br />
µ-Controller:<br />
* kleinere Systeme, wichtigste Bauteile auf dem Chip integriert<br />
* Spezialhardware für bestimmte Aufgaben (µC: Steuerung, DSPs: MAC-Befehler) => speziell auf das Problem angepasste HW verfügbar<br />
* costum design möglich<br />
* Echtzeitanforderungen realisierbar<br />
* Parallelität <br />
=> Geeignet für autonome Systeme<br />
<br />
=== Welche Voraussetzungen an die Aufgabenstellungen müssen erfüllt sein, um sie auf parallelen Strukturen abarbeiten zu können? Nennen Sie Beispiel aus der Bildverarbeitung! ===<br />
* Algorithmen müssen sich parallelisieren lassen, rein sequentielle Abläufe nicht geeignet<br />
SIMD: Parallelität der Daten, Daten lassen sich aufteilen<br />
* Filterstrukturen<br />
* Nachbarschaftssuche <br />
* Bild in mehrere Teile unterteilen und einzeln berechnen <br />
* Ganze Arbeitsabläufe parallelisieren (zB Fehlstücke vom Band schmeißen, System1 untersucht gerade Fehlstücke, System2 ungerade)<br />
MISD: <br />
* Pipelining, dh einen Algorithmus nicht von einem Chip verarbeiten lassen sondern von mehreren Chips<br />
* Einzelne Chips sind Koniferen auf ihrem Gebiet und können die speziellen Aufgabe daher mit Gravur lösen<br />
* Kommunikationsoverhead <br />
MIMD:<br />
* verschiedene Aufgaben mit verschiedenen Daten parallel ausführen<br />
<br />
=== Was sind parallel arbeitende Rechnersysteme? Welche Strukturen sind für Aufgaben der Bildverarbeitung denkbar? ===<br />
* Parallel arbeitende Rechensysteme sind Rechner, die mehrere Berechnugnsschritte zur gleichen Zeit erledigen können<br />
* Bildverarbeitung: hohe Datenmengen und/oder hohe Echtzeitanforderung, dadurch können schon einfachste Probleme komplex werden<br />
* daher kiwi-Prinzip: kill it with iron, solange Hardware reinschmeißen, bis es funktioniert ;)<br />
* dh: Aufgaben aufteilen auf verschiedene Rechensysteme<br />
<br />
=== Nennen Sie einige vom von-Neumann-Prinzip abweichende Rechnerarchitekturen und erläutern Sie diese Strukturen! ===<br />
* Harvard: getrennte Speicher für Daten und Programme, zB bei Cache in x86 CPUs<br />
* Filtersturkturen: Multiplizierer an jeder Datenleitung zum beaufschlagen mit Konstanten, dahinter Addierer für alle Datenleitungen -> hochparallel<br />
<br />
=== Zeigen Sie einige Möglichkeiten der Verlagerung von Algorithmen der Bildverarbeitung in Hardware! ===<br />
* bevorzeugt für Algorithmen, die identisch für das ganze Bild sind<br />
* Punktoperationen (zB Grauwerte verändern) => Look Up Tables (einfach und schnell)<br />
* Einfache Filter können in Hardware gemacht werden, Miltiplikation von Konstanten udn Aufaddierung <br />
* nichlineare Filer in fester Nachbarschaft: Sortieren, Neuordnung etc<br />
* Neuronale Netze mit einfachen Neurocomputern<br />
<br />
=== Welche Möglichkeiten bieten Look-up-table, um Aufgaben der digitalen Bildverarbeitung in Hardware zu lösen? ===<br />
* Hardware ist nur ein schneller Speicher, der eine einfache funktionale Abbildung realisiert<br />
* x ist Eingang, f(x) ist Ausgang<br />
* Koeffizienten bzw. Funktionswerte sollten sich verändern lassen (programmierbare rEgister)<br />
<br />
=== Skizzieren Sie eine Struktur, die es gestattet, Grauwerthistogramme on-line zu erzeugen! ===<br />
* Speicher bauen, dessen Adress-Eingang der Grauwert des Pixels ist<br />
* Ausgang des Speichers inkrementiert den Eingang<br />
* ergibt n Zähler, die über Adresse angesprochen werden, Adresse ist der Grauwert <br />
<br />
=== Skizzieren Sie eine Struktur. die es gestattet, ausgehend von einem seriellen digitalen Bilddatenfluß, die Umgebung eines Bildpunktes parallel zur Verfügung zu stellen? ===<br />
* Sender sendet seriellen Datenstrom und Empfänger soll den in parallelen strom zerlegen<br />
* Sortierung des Bildes nach Zeilen => für jede Zeile steht am Empfänger ein Register zur Verfügung<br />
* Sender und Empfänger müssen beide wissen, wie viele Pixel/Zeile es gibt und wie viel Zeilen, so sind keine Trennzeichen erforderlich<br />
* Empfänger kann seriellen Eingangsdatenstrom nach einer Zeile kappen und für eine neue Zeile einen neuen Ausgangsdatenstrom erzeugen, Zwischenspeicher in rEgistern<br />
<br />
=== Wie könnte die Struktur einer Hardwarebaugruppe aussehen, die es gestattet, Faltungsoperationen on-line durchzuführen? ===<br />
* zuerst mal heißt das on-the-fly ;)<br />
* Filterstruktur: sum(a*x)<br />
* Pixel trödeln parallel ein => n Datenleitungen für n Pixel<br />
* jedes Pixel mit Konstante aus Register multiplizieren => pro Datenleitung ein Konstantenregister<br />
* Am Ende ein großer Adder, der alle Werte addiert<br />
<br />
=== Klassifizieren Sie Bildverarbeitungssysteme nach Aufgabenstellung und daraus resultierender einzusetzender Rechentechnik! ===<br />
* PC, Industrie-PC für Anwendungen mit Mensch-Maschine Kommunikation<br />
* µC, DSP für standalone Systeme<br />
<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Datei:Skizze_randabfall.svg&diff=7020Datei:Skizze randabfall.svg2009-03-21T10:42:52Z<p>DarkGhost: Skizze zum Randabfall</p>
<hr />
<div>Skizze zum Randabfall</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Systemtechnik_der_Bildverarbeitung:Fragenkatalog&diff=7019Systemtechnik der Bildverarbeitung:Fragenkatalog2009-03-20T17:16:46Z<p>DarkGhost: /* Erläutern Sie das Phänomen des Randabfalls der durch ein Objektiv abgebildeten Strahldichten! */</p>
<hr />
<div>== Technische Sehsysteme ==<br />
=== Nennen Sie Parameter, von denen die notwendige Rechenleistung eines Bildverarbeitungssystems abhängt! ===<br />
* Datenmenge<br />
** Größe des Objektes (z.B. 300mm Si-Wafer)<br />
** Bildauflösung (Strukturen bis 100 nm auf dem Wafer sollen erkennbar sein) -> das bestimmt Anzahl der Pixel auf dem Sensor<br />
** Farbe? Graustufen? Auflösung von Farbe und Graustufen (8 Bit, 4 Bit, ...)<br />
* Geschwindigkeit<br />
** Wie oft sollen Bilder aufgenommen werden, zB 50x pro Sekunde oder einmal pro Stunde?<br />
<br />
=== Schätzen Sie anhand eines selbstgewählten Beispiels aus der Automatisierungstechnik die Größenordnung der notwendigen Rechenleistung ab! ===<br />
* Werkstück aus Box nehmen: 128x128 Pixel, 16 Bit Daten<br />
== Sensoren ==<br />
=== Erläutern Sie die Phänomene „innerer photoelektrischer Effekt“ und „äußerer photoelektrischer Effekt“ ! ===<br />
Innerer: <br />
* Photonen dringen in ein Material, z.B. einen Halbleiter, ein und lösen dort Elektronen aus den Atomen. Somit entstehen freie Ladungsträger. Wird eine Spannung angelegt, ist daher ein Stromfluss möglich. <br />
Äußerer: <br />
* Photonen treffen auf die Oberfläche eines Materials, z.B. eines Metalls, auf und schlagen Elektronen heraus, die dann außerhalb des Materials als freie Ladungsträger zur Verfügung stehen. <br />
* Ordnet man Elektroden um das Material an, kann ein Stromfluss beobachtet werden.<br />
<br />
=== Wie kann man mit Einzelsensoren ortsaufgelöste Bilddaten gewinnen ? ===<br />
* Man nehme zwei rotierende Spiegel deren Roationsachse um 90° gekippt ist<br />
** Bild kann so "abgerastert" werden<br />
** nur vergleichsweise langsame Bildaufnahme möglich<br />
* Nimmt man eine CCD-Zeile zur Aufnahme reicht ein rotierender Spiegel um ein Bild aufzunehmen<br />
* Ein Aufbau mit einem [http://de.wikipedia.org/wiki/Mikrospiegelaktor DMD-Chip] ist auch denkbar<br />
<br />
* Indem man sie über das zu vermessende Objekt bewegt. Beispiel: CCD-Zeile über Müll bewegen zur Mülltrennung. (jaja, eine Zeile ist kein Einzelsensor...)<br />
* günstig da, wo sich das Objekt schon von selbst bewegt, zB aufm Fließband<br />
* Vorteil: Schnelleres Auslesen, damit höhere Bilderfassungsfrequenz - wenn die Beleuchtung stimmt, da die Integrationszeiten klein werden<br />
<br />
=== Erläutern Sie das Grundprinzip von CCD-Bauelementen ! ===<br />
* Anordnung von Einzelsensoren in einer Matrix, jeder dieser Sensoren generiert Elektronen mit innerem fotoelektrischen Effekt<br />
* Ladungen müssen transportiert werden:<br />
** Verschieben von Ladungen durch Aneinanderreihung von Elektroden über Halbleitern -> jede Elektrode erzeugt ein elektrisches Feld<br />
** Elektronen sammeln sich an Elektrode -> Elektronenwolke<br />
** Erzeugen eines höheren Potentials an einer Nachbar-Elektrode veranlasst die Elektronenwolke, sich zu dieser Nachbar-Elektrode zu bewegen<br />
** somit analoges Schieberegister realisiert<br />
** Möglichkeit der mehrstufigen Realisierung<br />
<br />
=== Erläutern Sie die Funktionsweise von CCD-Zeilen ! ===<br />
* Einzelsensoren aneinanderpappen zu einer Zeile, bis zu 10.000 Elemente möglich<br />
* Effizientes Auslesen möglich durch parallele Ausgänge (Multi Channel Strukturen) => bis zu einigen kHz möglich<br />
* sehr kurze Integrationszeiten möglich => gute Beleuchtung<br />
<br />
=== Nennen Sie Vor- und Nachteile von CCD-Zeilen und -Matrizen bei der 2-D-Bilddatengewinnung! ===<br />
Blöde Frage: Vorteile gegenüber welchem Vergleichsobjekt denn?!<br />
Vorteile:<br />
* regelmäßige Anordnung der Einzelsensoren, damit Ortsausflösung implizit gegeben (bei Zeile: Wenn Zeile über Objekt bewegt wird)<br />
* Alle Pixel gleichzeitig ausgelesen, daher kein Verwischeffekt wie bei CMOS, dafür möglicherweise smear <br />
** Vergleiche CMOS: CMOS-Sensoren können wie ein Speicher ausgelesen werden, das heißt es kann über eine Adressierungsmatrix auf jedes Pixel zugegriffen werden. Daher wird jedes Pixel zu einem bestimmten Zeitpunkt ausgelesen, unabhängig von den anderen Pixeln. Liest du z.B. eine Zeile von links nach rechts, kann sich das aufzunehmende Objekt während der Auslesezeit schon weiter bewegt haben und du kriegst Bewegungsunschärfe. Bei Interline Transfer CCD hingegen schiebst du alle Ladungen gleichzeitig in ein Schiebregister, das heißt, die Daten aller Pixel werden gleichzeitig gewonnen. Klar, die Daten werden danach nochmal sequentiell über den ganzen Chip geschoben und erreichen den Speicher hintereinander. Aber die Daten sind zur gleichen Zeit entstanden.<br />
* Einfache Möglichkeit Halbbilder zu erzeugen, indem man einfach 1 Schieberegister für 2 Pixel nutzt<br />
<br />
Nachteile:<br />
* begrenzte Aufnahmegeschwindigkeit: Integrationszeit und Auslesezeit<br />
* Braucht recht komplexe Spannungsversorgung (Viele Verschiedene Spannungen zur Generierung der Potentialunterschiede beim Schieben)<br />
* Komplexes Taktregime notwendig (Takte zum Zeilen- und Spaltenschieben, sowie für Shutterimpulse)<br />
<br />
=== Erläutern Sie die Grundprinzipien von Interline- und Frame-Transfermatrizen! ===<br />
Schiebt man Ladungen durch den Sensor, gibt's smear-Effekte und außerdem dauert's lange, bis neue Ladungen gesammelt werden können. Zwei Ansätze: <br />
<br />
Interline:<br />
* für jedes Pixel ein lichtunempfindliches Schieberegister (oder ein Register für zwei Pixel), in das die Ladungen nach der Integrationszeit rein geschoben werden (parallel für alle Pixel, also sehr schnell)<br />
* dann in Ruhe die Schieberegister auslesen, währenddessen können die lichtempfindlichen Pixel schon wieder Ladungen generieren<br />
* Nachteil: Verringerung der Auflösung/Empfindlichkeit<br />
** umgehen z.B. mit Mikrolinsen, die das Licht, was auf die unempfindlichen Register trifft, auf die empfindlichen Pixel lenkt<br />
*** weiterer Nebeneffekt: drastische Reduzierung von Interferenzerscheinungen durch verschiedene Einfallswinkel<br />
Frame:<br />
* Das Hochschieben der Daten geht recht schnell, was dauert ist das sequentielle Einschieben für das horizontale Rausschieben (oberste Zeile)<br />
* Also: Obere Hälfte der CCD-Matrix abdecken und Daten schnell n den "dunklen" Bereich schieben<br />
* Nachteile: Halbierung der Aufnahmefläche, smear wird nicht beseitigt<br />
* Vorteil: Es können mehrere Bilder auf der abgedunkelten Chipfläche zwischengespeichert werden. Z.B. 3 Bilder speicherbar, wenn nur ein Viertel der Sensorfläche lichtempfindlich ist. -> Nutzbar bei Hochgeschwindigkeitsaufnahmen.<br />
<br />
=== Was versteht man unter einer Shutterkamera? Erläutern Sie das Grundprinzip! Wo kann man solche Systeme sinnvoll einsetzen? ===<br />
* bevor man neues Bild auslesen kann, muss das alte Bild fertig ausgelesen sein - und das kann lange dauern<br />
* also eigentlich keine Integrationszeiten möglich, die kürzer als die Auslesezeit sind<br />
* Lösung: shuttern. <br />
** dabei werden die in den Pixeln generierten Ladungen regelmäßig ins Substrat abgeführt, nur kurz vorm Auslesen werden die Ladungen bis zum Auslesen gehalten.<br />
** sozusagen ein invertierter Refresh ;)<br />
<br />
=== Wie kann man mit Interline-Transfermatrizen videonormgerechte Signale, d.h. nach dem interlaced-Prinzip zur Verfügung stellen ? ===<br />
* Wenn ein Schieberegister für zwei Pixel zur Verfügung steht, kann man bei Bild n Pixel gerader Zeilen auslesen, bei Bild n+1 Pixel ungerader Zeilen<br />
<br />
=== Wie kann man bei CCD-Matrixsensoren Hochgeschwindigkeitskameras realisieren.? ===<br />
* mehrere parallele Ein- und Ausgänge<br />
* mit Frame-Transfer-Matrizen, die mehrere Bilder speichern können (zB 90% des Sensors lichtunempfindlich, nur zum Speichern genutzt)<br />
<br />
=== Welche Vor- und Nachteile haben CMOS-Sensoren gegenüber CCD-Sensoren ? ===<br />
Vorteile:<br />
* Kamera on-a-chip möglich, da Zusatzelektronik direkt mit droffgepappt werden kann<br />
* beliebiges Auslesen der Pixel (ansprechen wie RAM mit Adressierungsmatrix)<br />
* Vorverarbeitung direkt in den Pixeln, z.B. Verstärkung (aktive Pixel) oder logarithmische Kennlinien (angelehnt an Sinnensempfinden des Menschen)<br />
* schnelleres Auslesen, da paralleles Auslesen möglich: n AD-Wandler<br />
* intelligentes Auslesen: Elektronik erkennt von vornherein, wo das zu beobachtende Objekt auf dem Chip abgebildet wird und liefert nur diese Bereiche = kleinere Datenmenge<br />
* kein Blooming<br />
* keine krummen Spannungen und zig Taktgeneratoren, das was gebraucht wird kann auch gleich auf den Sensor mit droff<br />
* billiger<br />
Nachteile:<br />
* stärkeres Rauschen durch mehr analoge Bauelemente (z.B. ein Transistor pro Pixel, mehrere AD-Wandler) => Festmusterrauschen<br />
* Dunkelsignalrauschen ist generell wesentlich temperaturabhängiger aufgrund der vielen integrierten Bauelemente<br />
* Zeilenrauschen nicht so einfach korrigierbar, da mehrere Ausgangsleitungen<br />
* da Pixel zu beliebigen Zeiten ausgelesen werden können, kann es zu Bewegungsunschärfen kommen<br />
<br />
== Multikanal (Farb-) Sensoren ==<br />
=== Was muss man bei der Realisierung von Farbaufnahmesystemen beachten ? ===<br />
* Farbe ist nur im Zusammenhang mit dem menschlichen Sehsystem definiert<br />
** Linearität zwischen Wellenlängenempfindlichkeit der Kamerasensoren und menschlichen Empfindlichkeiten gewünscht<br />
** verschiedene Farbreize können beim Menschen das gleiche Farbempfinden hervorrufen<br />
** Helligkeitsinformation wichtiger als Farbinformationen<br />
** unterschiedliche Empfindlichkeiten für unterschiedliche Wellenlängen, gleich helle blaue LED und rote LED werden nicht als gleich hell empfunden<br />
** Menschen nehmen die Farbe Grün besonders stark wahr<br />
** das alles is auch noch ortabhängig<br />
* Sensoren sind für größere Wellenlängenbereiche als das Auge empfindlich (IR, UV)<br />
* mit drei Farbkanälen können nicht alle Farben dargestellt werden, mehr Kanäle -> höhere Kosten<br />
<br />
=== Geben Sie Möglichkeiten der Aufnahme und Wiedergabe von Farbbildern an! ===<br />
Kamera:<br />
* Aufnahme mit 3 Sensoren, komplizierte und teure Objektive nötig, die das Bild positionsgenau in drei Wellenlängenbereiche (R,G,B) aufteilen<br />
* 1 Sensor, verschiedene Farbfilter, z.B. Rotieren mit Rad<br />
* 1 Sensor mit Pixeln, die empfindlich für verschiedene Wellenlängen sind (Consumer-Technik)<br />
<br />
Wiedergabe:<br />
* RGB Monitor<br />
* CMYK-Drucker<br />
* ...<br />
<br />
=== Welche Möglichkeiten zur Erfassung von Farbinformationen ergeben sich, wenn die Aufgabenstellung Verarbeitung der Farbinformation (Informationsextraktion) und nicht Wiedergabe von Farbbildern lautet. ===<br />
* (1) örtliche Informationen komplett weglassen, dh. nur Spektrum des Bildes aufnehmen<br />
** zum Beispiel um Lacke zu prüfen<br />
** Möglichkeit: mit Prisma Abbildung auf CCD-Zeile, Prisma bricht verschiedene Wellenlängen unterschiedlich stark => Spektrometer / Spektroskopie<br />
* (2) Verzicht auf komplette spektrale Auflösung, nur Teil des Spektrums erfassen (mich interessiert z.B. nur gelb) => Multikanel Vektor Bilder<br />
* Kombination aus (1) und (2), z.B. Farbkoordianten<br />
<br />
=== Erläutern Sie die Unterschiede zwischen 1- und 3-Chip-CCD-Farbkameras? ===<br />
* 3 Farbkanäle: R,G,B<br />
* 3-Chip: <br />
** drei verschiedene CCD-Sensoren mit gleicher Größe benutzen, je einer für R,G und B<br />
** Strahlteilung durch halbdurchässige Spiegel / Prismen oder Kaleidoskopoptik<br />
** Genaue Positionierung der CCDs nötig (im µm Bereich), damit örtliche Verteilung erhalten bleibt<br />
** teuer, aber beste Bilder<br />
* 1 Chip SW:<br />
** Filterrad mit versch. Filtern für verschiedene spektrale Empfindlichkeiten<br />
* 1-Chip RGB:<br />
** Gruppen von jeweils 4 Pixeln werden für verschiedene Farbkanäle genutzt: 1 Pixel R, 2 Pixel G, 1 Pixel B<br />
** Filterung mit Farbfiltern<br />
** Verlust von Auflösung<br />
** Möglichkeit der einfachen Berechnung für YCrCb Farbrum bei Interline-Matrizen: Geschicktes "Addieren" der Elektronen in den Schieberegistern, Subtrahieren mit S&H Schaltungen<br />
<br />
== Kamera ==<br />
<br />
=== Wodurch wird die reale photometrische Auflösung (Anzahl realistischer Graustufen) von CCD-Sensoren bestimmt? ===<br />
* Güte des AD-Wandlers<br />
* Dunkelsignal (zu hohes Dunkelrauschen macht hohe Auflösung des AD-Wandlers sinnlos)<br />
<br />
=== Nennen Sie Parameter, die die Abweichung vom idealen Verhalten bei CCD-Matrizen beschreiben! ===<br />
* Apertur der Pixel - nicht überall gleich empfindlich, außerdem Beeinflussung der Nachbarpixel<br />
* Dunkelsignalrauschen - Ladungsgenerierung ohne Lichteinfall<br />
* Güte des Siliziums (Dotierung, Verunreinigung) nicht überall auf dem Chip identisch => Unterschiede der Empfindlichkeit bei exakt gleichmäßiger Beleuchtung messbar, Abweichungen im bereich 1-3%<br />
<br />
=== Was versteht man unter Transferineffektivität? Wie wirkt sie sich aus? ===<br />
* Beim Schieben der Ladungen werden nicht alle Elektronen bewegt, ein kleiner Teil bleibt "hängen" <br />
** Grund: Abstoßung der Elektronen untereinander<br />
* Daher gehen Informationen über die Leuchtstärke, die auf das entsprechende Pixel wirkte, verloren oder werden fälschlicherweise auf andere Pixel abgebildet (wenn die Elektronen beim späteren Schieben nachkommen)<br />
<br />
=== Was wird mit dem Begriff Shading bei CCD-Kameras erfasst? Wie kann man die Auswirkungen korrigieren? ===<br />
* Objektiv leuchtet nicht den gesamten Bereich des Sensors gleich gut aus, vor allem am Rand<br />
* Lösung: bessere bzw. größere Objektive<br />
<br />
=== Was versteht man unter Smear bei Frame-Transfermatrizen ? Welche Möglichkeiten zur Verminderung werden eingesetzt ? ===<br />
* Ladungen von unten werden nach oben durchgereicht, sie passieren also lichtempfindliche Pixel<br />
* passieren Ladungen aus unbeleuchteten Pixeln beleuchtete Pixel, werden während der Ladungsverschiebung neue Elektronen generiert<br />
* dunkle Pixel werden daher also heller interpretiert, als sie eigentlich sind<br />
* Gesamtbild sieht dann aus wie verwischt -> smear<br />
<br />
== Beleuchtung ==<br />
<br />
=== Nennen Sie einige Anforderungen an Szenenbeleuchtung am Beispiel einer selbst gewählten Bildverarbeitungsaufgabenstellung ! ===<br />
* Angenommen ich will rote von grünen Tomaten unterscheiden, so brauch ich Auflicht, welches sowohl einen Rot, als auch einen Grünanteil beinhaltet.<br />
* Kratzer in Spiegel untersuchen mit Dunkelfeld oder Hellfeld<br />
* Länge eines Werkstückes mit Durchlicht und telezentrischem Objektiv<br />
<br />
=== Welche Rolle spielt die spektrale Verteilung der Strahlung bei der Szenenbeleuchtung für Bildverarbeitungssysteme? ===<br />
* Das Licht enthält z.B. Infrarotstrahlung, die der Mensch nicht sieht, welche aber die Kamera stark stört<br />
** beleuchtet man eine Szene, weil man etwas messen will, nimmt der Sensor auch Informationen über IR-Strahlung auf, die man garnicht sehen kann<br />
** Verfälschung der Messung.<br />
* Manche Strukturen brechen Licht wellenlängenabhägig=> gut für Spektrometer, kann aber auch stören<br />
* Interferenz wellenlängenabhägig<br />
* Lösung: Filter<br />
<br />
=== Erläutern Sie die Grundaussage des photometrischen Grundgesetzes! ===<br />
* Das photometrische Grundgesetz beschreibt den Leistungsaustausch zwischen einer leuchtenden Fläche A1 (mit der Leuchtdichte L) und einer bestrahlten Fläche A2 in Abhängigkeit ihrer Verdrehung im Raum<br />
<br />
=== Welche physikalischen Effekte werden zur Erzeugung von Licht eingesetzt ? ===<br />
* '''Die Glühbirne, was wirklich passiert'''<br />
** Durch das Anlegen eines elektrischen Feldes an den Glühdraht werden die Elektronen im Metall beschleunigt<br />
*** Die Valenzband Elektronen können sich in Metallen frei bewegen → Elektronengas<br />
** Es kommt zu Zusammenstößen der Elektronen mit Elektronen und den Atomrümpfen → der Draht hat einen Widerstand<br />
** Die übertragene Energie der Elektronen an die Atomrümpfe führt dazu das diese eine größere Eigenschwingung ausführen → Die Temperatur des Glühdrathes steigt<br />
** Jeder warme Körper sendet ein kontinuierliches Spektrum an elektromagnetischer Strahlung aus ([http://de.wikipedia.org/wiki/Plancksches_Strahlungsgesetz Plancksches Strahlungsgesetz])<br />
** Ist der Drath genügend heiß so können wir die abgegebene Strahlung im sichtbaren Bereich sehen (nur ein geringer Teil der Strahlung wir in diesem Bereich ausgesendet) → Die Lampe leuchtet<br />
<br />
<br />
Jan's Version:<br />
* Licht durch Glühemmission (z.B. Glühbirnen, Halogenlampen) -> stochastische Bewegung der Elektronen, daher Reibungsenergie mit den Atomen des Glüchdrahtes => Abgabe vieler unterschiedlicher Wellenlängen<br />
** kontinuierliches Spektrum<br />
* Licht durch Stoßionisation (z.B. in Entladungslampen) -> Elektronen stoßen Atome => heben Elektronen kurzzeitig auf höheres Energie-Niveau, beim Rückfallen werden Lichquanten freigesetzt<br />
** diskretes Spektrum<br />
* Licht am PN-Übergang ( in LEDs) -> Rekombination der Elektronen im Valenzband setzt Photonen frei<br />
** diskretes Spektrum<br />
<br />
<br />
Martin's Version:<br />
* Licht durch Glühemmission (z.B. Glühbirnen, Halogenlampen) -> Thermische Energie in den Atomen hebt Elektronen kurzzeitig auf höheres Energie-Niveau und beim Rückfallen werden Lichquanten freigesetzt<br />
** kontinuierliches Spektrum<br />
* Licht durch Stoßionisation (z.B. in Entladungslampen) -> Rekombination der Ionen mit den Elektronen setzen Photonen frei<br />
** diskretes Spektrum<br />
* Licht am PN-Übergang ( in LEDs) -> Rekombination der Elektronen im Valenzband setzt Photonen frei<br />
** diskretes Spektrum<br />
<br />
=== Nennen Sie einige Lampentypen und erläutern Sie die Prinzipien der Lichterzeugung ? ===<br />
* Wärmestrahlung: Material erwärmen, bis es Strahlung im Wellenlängenbereich von Licht abstrahlt, z.B. Elektronen durch Wolframdraht drängeln<br />
** kontinuierliches Spektrum mit hohem Infrarotanteil<br />
* Entladungslampen: Ionisierung von Gasen durch Spannungen, Freisetzung von Photonen.<br />
** diskretes Spektrum, kontinuierlich nur mit Beschichtungen (Anregung von Leuchtstoffen)<br />
* Halbleiter: Rekombination am PN-Übergang, damit wieder die Energieniveaugeschichte<br />
** diskretes Spektrum, kontinuierlich nur mit Beschichtungen (Anregung von Leuchtstoffen)<br />
<br />
=== Nennen Sie Eigenschaften unterschiedlicher Lampentypen ! ===<br />
Glühbirnen:<br />
* Vorteil:<br />
** billig<br />
** breites Spektrum<br />
** einfache Beschaltung<br />
** in jeder Größe herstellbar<br />
* Nachteil<br />
** recht kurze Lebensdauer<br />
** hohe Lichtineffizienz (Dunkelleuchter)<br />
** Spektrum ist temperaturabhängig<br />
** Verdunkeln mit der Zeit, da Wolfram sich am Glas absetzt<br />
* Verbesserung: <br />
** Halogenleuchten - Halogen bindet Wolfram, dadurch werden die Glaswände nicht dunkler. Gleichzeitig bildet sich um den glühenden Wolframdraht eine Wolke, die weiteren Abtrag verhindert (irgendwie :-/ )<br />
** Beschichtung des Glases, was das Austreten der Infrarotstrahlung mindert und somit zu einer Erhitzung des Wendels beiträgt. (Spart Energie)<br />
<br />
<br />
Entladungslampen<br />
* Vorteil<br />
** Teilweise hohe Leuchtstärke (XEON-Licht), vor allem bei Hochdrucklampen<br />
** "Dünnes" Spektrum (kann auch von Vorteil sein, z.B. wenn andere Farben stören würden)<br />
* Nachteil<br />
** Eigentlich nur kleines, diskretes, meist nicht sichtbares Spektrum (Lösung durch Fluriszierende Beschichtung)<br />
** Benötigt etwas komplexere Beschaltung (Elektromagnetische Vorschaltegeräte EVG)<br />
** Nichtlineare Kennlinie<br />
** Nicht beliebig klein baubar, da Elektroden relativ groß sind<br />
** Hochdrucklampen müssen erst "hochfahren" und sind explosionsgefährdet<br />
<br />
<br />
Leuchtdioden<br />
* Vorteil<br />
** Klein und in vielen Farben herstellbar<br />
** Vergleichsweise hohe Lebensdauer <br />
** Geringer Verbrauch bei hoher Leistung<br />
* Nachteil<br />
** Dimmen durch PWM<br />
** Temperaturabhängiges Licht (in Intensität und Wellenlänge)<br />
** recht schmales Spektrum -> Weißes Licht durch RGB-Kombination oder Blaue LED mit Phosphorschicht<br />
** Lassen mit der Zeit an Leuchtkraft nach<br />
** Großteil der Photonen dringen nicht nach außen, weil sie IM PN-Übergang entstehen<br />
=== Was versteht man unter dem Flimmerfaktor von Lampen? Welche Rolle spielt er für CCD-Bildaufnahmesysteme (Zeilen, Matrizen)? ===<br />
* Lampen werden mit Wechselstrom oder gepulster Gleichspannung betrieben, geben daher nicht kontinuierlich die gleiche Strahlung ab sondern mit bestimmter Frequenz -> Flimmern<br />
* CCD: so kurze Integrationszeiten, dass dieses Flimmern die Bildaufnahme beeinflusst<br />
* Abtastung immer zum gleichen Zeitpunkt: kein Problem<br />
* Abtastung zu verschiedenen Zeitpunkten: Bei einem Bild Lampe hell, beim anderen Lampe gerade dunkel: Müst<br />
<br />
=== Wie kann man eine näherungsweise gleichmäßige Ausleuchtung einer ebenen Fläche erreichen? ===<br />
* Durch Punktleuchten mit einem Höhen/Abstands-Verhältnis von 0,82<br />
* Durch Ringleuchten mit einem Höhen/Durchmesser-Verhältnis von (unwichtig)<br />
<br />
== Optische Abbildung ==<br />
<br />
=== Wie wirken sich Modulationstransferfunktion, Verzeichnung, Randabfall von Objektiven auf die resultierenden Eigenschaften eines Bildaufnahmekanals aus! ===<br />
<br />
=== Nennen Sie Anforderungen aus der Bildverarbeitung, die Einfluss auf die Auswahl von Objektiven haben! ===<br />
* Abstand es Objektes zum Sensor => Brennweite<br />
* Größe des Objektes, Größe des Sensors => Abbildungsmaßsstab, Brennweite<br />
* Art der Messaufgabe (hyperzentrisches, endozentrisches oder telezentrisches Objektiv)<br />
<br />
=== Was versteht man unter telezentrischem Strahlengang? Welche Vorteile bringt er? Wie ist er erreichbar? ===<br />
* Öffnungsblende im Brennpunkt der Bildseite -> lässt nur Brennpunktstrahlen durch, die auf Objektseite Parallelstrahlen sind<br />
* keine Verzeichnung des Objektes, unabhängig vom Abstand des Objektes zur Linse -> ideal zur Längenmessung<br />
<br />
=== Erläutern Sie das Phänomen des Randabfalls der durch ein Objektiv abgebildeten Strahldichten! ===<br />
* Am Besten malt man eine Skizze des Optischen Systems. Auf der man sieht dann, dass die Hauptstrahlen alle durch den Linsenmittelpunkt müssen. Dann geht man davon aus, dass die größte Lichtaussendung eines Objektes genau entlang dieses Hauptstrahls am Größten ist. Wenn man jetzt die Objekthöhe besonders hoch wählt, dann sieht man, dass dessen Hauptstrahl in der Bildebene immer weiter von der optischen Achse wegwandert (also nach Unten). Ab einem bestimmten Winkel wird dann der Hauptstrahl nichtmehr auf die Sensorfläche treffen weil er in der Bildebene darunter liegt. Dann wird auch nicht mehr das gesamte Licht auf den Sensor treffen. Ergo: Je steiler der Winkel, desto dunkler werden die lichtpunkte des Objektes auf dem Sensor, was man dann Randabfall nennt.<br />
** Nette Theorie aber folgende Punkte werden nicht erklärt<br />
*** Der Randabfall ist sofort zu beobachten auch wenn sich der leuchtende Punkt nur minimal neben der Optischen Achse befindet (Der Punkt kann also noch locker auf die CCD abgebildet werden)<br />
*** Der Randabfall läßt sich nicht dadurch beheben, dass man die CCD - Größer macht, was ja nach dieser Theorie gehen müsste :)<br />
*** --DarkGhost 16:12, 20. Mär. 2009 (UTC)<br />
* '''Der Randabfall, oder auch das cos^4 Gesetz'''<br />
** Folgende Annahme: Linse ist ideal, keine Blende, keine Lichtverluste in der Optik der Kamera<br />
** Betrachten wir eine Fläche A die gleichmäßig Licht in Richtung Kamera aussendet und sich in der optischen Achse befindet<br />
*** Der Raumwinkel der leuchtenden Fläche ergibt sich damit zu <br> <math>\omega = \frac{d^2}{4 \cdot g^2} \cdot 1sr </math><br />
*** d ... Linsendurchmesser<br />
*** g ... Abstand der Fläche zur Linse<br />
** Wird nun diese Fläche ein Stückchen aus der optischen Achse bewegt ändern sich folgende Dinge<br />
*** Der Raumwinkel wird kleiner (mit <math>cos(\alpha)</math>)<br />
*** Die Fläche verkürzt sich perspektivisch (mit <math>cos(\alpha)</math>)<br />
*** Die Entfernung zur Fläche wird größer <br />
*** Die Linse ist von der Fläche aus gesehen auch nicht mehr Kreisförmig sondern elliptisch<br />
** Daraus lässt sich sich Ableiten das sich der Lichtstrom von der Fläche zur Kamera (weiter durch Optik und auf CCD) wie folgt ändert <br> <math> \Phi' = \Phi_0 cos^4 (\alpha) </math><br />
*** <math>\alpha</math> ... ist der Winkel zwischen Diagonale zur Linse <br />
*** <math>\Phi_0</math> ... Lichtstrom der Fläche in der optischen Achse<br />
*** <math>\Phi'</math> ... Lichtstrom der Fläche unter einem Winkel zur optischen Achse<br />
** Das ganze bezeichnet man dann als Randabfall<br />
** selbst bei Lichtverlust in der Optik und Blende bleibt der Haupteinfluss beim <math>cos^4</math> Gesetz<br />
[[Datei:Cos4.png]]<br />
<br />
=== Für welche Abbildungsverhältnisse sind Fotoobjektive prädestiniert? Welche Probleme sind beim Einsatz für die digitale Bildverarbeitung zu beachten? ===<br />
<br />
== Bildverarbeitungssysteme ==<br />
<br />
=== Warum steht bei Bildverarbeitungssystemen die Forderung nach einem eigenständigen Bilddatenbus? ===<br />
* große Datenmengen, meist streng strukturiert<br />
* hohe Echtzeitanforderungen, daher hohe Übertragungsrate gewünscht, bestenfalls isochron<br />
* Möglichkeit der parallelen Verarbeitung<br />
* ein Datum idR klein, 8 Bit zB<br />
<br />
=== Welche Forderungen sind an analoge Bilddatenkanäle (on-chip-Verstärker, ..., Vorverstärker für ADU) zu stellen? ===<br />
* geringe Temperaturabhängigkeiten<br />
* gutes Rauschverhalten<br />
* hoher Anspruch an Linearität<br />
<br />
=== Was versteht man unter Auflösung und was unter Genauigkeit eines ADU? ===<br />
Auflösung:<br />
* ja wie viel Bit die Möhre halt hat ;)<br />
Genauigkeit:<br />
* Güte der Diskretisierung des Wertebereichs<br />
* SNR<br />
<br />
=== Welche Forderungen sind an Bilddatenausgabegeräte (Visualisierung über Monitor) zu stellen? Ordnen Sie dabei Unterschiede zwischen interaktiver und automatischer Bildverarbeitung ein! ===<br />
Martin's Theorie:<br />
* Bei automatisierungsteschnischen Prozessen reicht es, wenn ich dem Bediener ein aufbereites, meinetwegen tausendmal gefiltertes Bild darstelle um dem "Experten" eventuell zu erklären, weshalb mein System diese Klassifikation getroffen hat. <br />
* Bei einer interaktiven Bildverarbeitung muss also der Bediener entscheiden, wie der nächste Schritt zu erfolgen hat. Daher brauch ich ein hochaufgelöstes Bild, was auch etliche Sekunden angezeigt werden muss.<br />
<br />
=== Welche Architekturmerkmale von µ-Prozessoren sind für die Bilddatenverarbeitung von größerem Interesse? ===<br />
* viele Register, Cache<br />
* Vektor-Rechenwerke, zB SSE, MMX<br />
* viele Datenwege (Speichercontroller aufm Die, HT-Link usw)<br />
* hohe Flexibilität bezüglich Zusatzhardware (HW für PCI, RAM erweitern usw.)<br />
* breite Verfügbarkeit, Preis (Massenproduktion)<br />
<br />
=== Wodurch sind moderne Bus-Systeme der µ-Rechentechnik gekennzeichnet? Welche Parameter sind für die Bildverarbeitung besonders interessant? ===<br />
* hoher Datendurchsatz, geringe Zugriffszeiten, Parallelität (Pipelining, SMT)<br />
* mehrere Busse parallel, zB bei Speicher: Zugriff auf Speicher (Daten reinfüttern) lähmt CPU nicht<br />
* hohe Datenmengen durch Bilder erzeugt => müssen transportiert werden<br />
<br />
=== Welche Eigenschaften zeichnen µ-Controller gegenüber µ-Prozessoren aus? ===<br />
µ-Prozessoren:<br />
* ursprünglich für Steuerungsaufgaben entwickelt, daraus entwickelten sich Heimrechner<br />
* daher große Vielfalt an Software und Hardware, auch ausgereift durch viele Beta-Tester<br />
* einfache Mensch-Maschine-Kommunikation<br />
* viele Zusatzbauelemente benötigt (Board, gRaka, taktgeber)<br />
* sehr begrenzte Echtzeitfähigkeiten von Soft- und Hardware<br />
* kurze Lebensdauer / Verfügbarkeit der Bauteile<br />
* Standard-PCs nicht für Industrie-Einsatz geeignet, Industrie PCs laut, teuer, stromhungrig<br />
=> Geeignet für Systeme mit hohem Anteil an Mensch-Maschine-Kommunikation<br />
<br />
µ-Controller:<br />
* kleinere Systeme, wichtigste Bauteile auf dem Chip integriert<br />
* Spezialhardware für bestimmte Aufgaben (µC: Steuerung, DSPs: MAC-Befehler) => speziell auf das Problem angepasste HW verfügbar<br />
* costum design möglich<br />
* Echtzeitanforderungen realisierbar<br />
* Parallelität <br />
=> Geeignet für autonome Systeme<br />
<br />
=== Welche Voraussetzungen an die Aufgabenstellungen müssen erfüllt sein, um sie auf parallelen Strukturen abarbeiten zu können? Nennen Sie Beispiel aus der Bildverarbeitung! ===<br />
* Algorithmen müssen sich parallelisieren lassen, rein sequentielle Abläufe nicht geeignet<br />
SIMD: Parallelität der Daten, Daten lassen sich aufteilen<br />
* Filterstrukturen<br />
* Nachbarschaftssuche <br />
* Bild in mehrere Teile unterteilen und einzeln berechnen <br />
* Ganze Arbeitsabläufe parallelisieren (zB Fehlstücke vom Band schmeißen, System1 untersucht gerade Fehlstücke, System2 ungerade)<br />
MISD: <br />
* Pipelining, dh einen Algorithmus nicht von einem Chip verarbeiten lassen sondern von mehreren Chips<br />
* Einzelne Chips sind Koniferen auf ihrem Gebiet und können die speziellen Aufgabe daher mit Gravur lösen<br />
* Kommunikationsoverhead <br />
MIMD:<br />
* verschiedene Aufgaben mit verschiedenen Daten parallel ausführen<br />
<br />
=== Was sind parallel arbeitende Rechnersysteme? Welche Strukturen sind für Aufgaben der Bildverarbeitung denkbar? ===<br />
* Parallel arbeitende Rechensysteme sind Rechner, die mehrere Berechnugnsschritte zur gleichen Zeit erledigen können<br />
* Bildverarbeitung: hohe Datenmengen und/oder hohe Echtzeitanforderung, dadurch können schon einfachste Probleme komplex werden<br />
* daher kiwi-Prinzip: kill it with iron, solange Hardware reinschmeißen, bis es funktioniert ;)<br />
* dh: Aufgaben aufteilen auf verschiedene Rechensysteme<br />
<br />
=== Nennen Sie einige vom von-Neumann-Prinzip abweichende Rechnerarchitekturen und erläutern Sie diese Strukturen! ===<br />
* Harvard: getrennte Speicher für Daten und Programme, zB bei Cache in x86 CPUs<br />
* Filtersturkturen: Multiplizierer an jeder Datenleitung zum beaufschlagen mit Konstanten, dahinter Addierer für alle Datenleitungen -> hochparallel<br />
<br />
=== Zeigen Sie einige Möglichkeiten der Verlagerung von Algorithmen der Bildverarbeitung in Hardware! ===<br />
* bevorzeugt für Algorithmen, die identisch für das ganze Bild sind<br />
* Punktoperationen (zB Grauwerte verändern) => Look Up Tables (einfach und schnell)<br />
* Einfache Filter können in Hardware gemacht werden, Miltiplikation von Konstanten udn Aufaddierung <br />
* nichlineare Filer in fester Nachbarschaft: Sortieren, Neuordnung etc<br />
* Neuronale Netze mit einfachen Neurocomputern<br />
<br />
=== Welche Möglichkeiten bieten Look-up-table, um Aufgaben der digitalen Bildverarbeitung in Hardware zu lösen? ===<br />
* Hardware ist nur ein schneller Speicher, der eine einfache funktionale Abbildung realisiert<br />
* x ist Eingang, f(x) ist Ausgang<br />
* Koeffizienten bzw. Funktionswerte sollten sich verändern lassen (programmierbare rEgister)<br />
<br />
=== Skizzieren Sie eine Struktur, die es gestattet, Grauwerthistogramme on-line zu erzeugen! ===<br />
* Speicher bauen, dessen Adress-Eingang der Grauwert des Pixels ist<br />
* Ausgang des Speichers inkrementiert den Eingang<br />
* ergibt n Zähler, die über Adresse angesprochen werden, Adresse ist der Grauwert <br />
<br />
=== Skizzieren Sie eine Struktur. die es gestattet, ausgehend von einem seriellen digitalen Bilddatenfluß, die Umgebung eines Bildpunktes parallel zur Verfügung zu stellen? ===<br />
* Sender sendet seriellen Datenstrom und Empfänger soll den in parallelen strom zerlegen<br />
* Sortierung des Bildes nach Zeilen => für jede Zeile steht am Empfänger ein Register zur Verfügung<br />
* Sender und Empfänger müssen beide wissen, wie viele Pixel/Zeile es gibt und wie viel Zeilen, so sind keine Trennzeichen erforderlich<br />
* Empfänger kann seriellen Eingangsdatenstrom nach einer Zeile kappen und für eine neue Zeile einen neuen Ausgangsdatenstrom erzeugen, Zwischenspeicher in rEgistern<br />
<br />
=== Wie könnte die Struktur einer Hardwarebaugruppe aussehen, die es gestattet, Faltungsoperationen on-line durchzuführen? ===<br />
* zuerst mal heißt das on-the-fly ;)<br />
* Filterstruktur: sum(a*x)<br />
* Pixel trödeln parallel ein => n Datenleitungen für n Pixel<br />
* jedes Pixel mit Konstante aus Register multiplizieren => pro Datenleitung ein Konstantenregister<br />
* Am Ende ein großer Adder, der alle Werte addiert<br />
<br />
=== Klassifizieren Sie Bildverarbeitungssysteme nach Aufgabenstellung und daraus resultierender einzusetzender Rechentechnik! ===<br />
* PC, Industrie-PC für Anwendungen mit Mensch-Maschine Kommunikation<br />
* µC, DSP für standalone Systeme<br />
<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Datei:Cos4.png&diff=7018Datei:Cos4.png2009-03-20T17:09:50Z<p>DarkGhost: Randabfall für ein Objektiv</p>
<hr />
<div>Randabfall für ein Objektiv</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Systemtechnik_der_Bildverarbeitung:Fragenkatalog&diff=7016Systemtechnik der Bildverarbeitung:Fragenkatalog2009-03-20T16:12:23Z<p>DarkGhost: /* Erläutern Sie das Phänomen des Randabfalls der durch ein Objektiv abgebildeten Strahldichten! */</p>
<hr />
<div>== Technische Sehsysteme ==<br />
=== Nennen Sie Parameter, von denen die notwendige Rechenleistung eines Bildverarbeitungssystems abhängt! ===<br />
* Datenmenge<br />
** Größe des Objektes (z.B. 300mm Si-Wafer)<br />
** Bildauflösung (Strukturen bis 100 nm auf dem Wafer sollen erkennbar sein) -> das bestimmt Anzahl der Pixel auf dem Sensor<br />
** Farbe? Graustufen? Auflösung von Farbe und Graustufen (8 Bit, 4 Bit, ...)<br />
* Geschwindigkeit<br />
** Wie oft sollen Bilder aufgenommen werden, zB 50x pro Sekunde oder einmal pro Stunde?<br />
<br />
=== Schätzen Sie anhand eines selbstgewählten Beispiels aus der Automatisierungstechnik die Größenordnung der notwendigen Rechenleistung ab! ===<br />
* Werkstück aus Box nehmen: 128x128 Pixel, 16 Bit Daten<br />
== Sensoren ==<br />
=== Erläutern Sie die Phänomene „innerer photoelektrischer Effekt“ und „äußerer photoelektrischer Effekt“ ! ===<br />
Innerer: <br />
* Photonen dringen in ein Material, z.B. einen Halbleiter, ein und lösen dort Elektronen aus den Atomen. Somit entstehen freie Ladungsträger. Wird eine Spannung angelegt, ist daher ein Stromfluss möglich. <br />
Äußerer: <br />
* Photonen treffen auf die Oberfläche eines Materials, z.B. eines Metalls, auf und schlagen Elektronen heraus, die dann außerhalb des Materials als freie Ladungsträger zur Verfügung stehen. <br />
* Ordnet man Elektroden um das Material an, kann ein Stromfluss beobachtet werden.<br />
<br />
=== Wie kann man mit Einzelsensoren ortsaufgelöste Bilddaten gewinnen ? ===<br />
* Man nehme zwei rotierende Spiegel deren Roationsachse um 90° gekippt ist<br />
** Bild kann so "abgerastert" werden<br />
** nur vergleichsweise langsame Bildaufnahme möglich<br />
* Nimmt man eine CCD-Zeile zur Aufnahme reicht ein rotierender Spiegel um ein Bild aufzunehmen<br />
* Ein Aufbau mit einem [http://de.wikipedia.org/wiki/Mikrospiegelaktor DMD-Chip] ist auch denkbar<br />
<br />
* Indem man sie über das zu vermessende Objekt bewegt. Beispiel: CCD-Zeile über Müll bewegen zur Mülltrennung. (jaja, eine Zeile ist kein Einzelsensor...)<br />
* günstig da, wo sich das Objekt schon von selbst bewegt, zB aufm Fließband<br />
* Vorteil: Schnelleres Auslesen, damit höhere Bilderfassungsfrequenz - wenn die Beleuchtung stimmt, da die Integrationszeiten klein werden<br />
<br />
=== Erläutern Sie das Grundprinzip von CCD-Bauelementen ! ===<br />
* Anordnung von Einzelsensoren in einer Matrix, jeder dieser Sensoren generiert Elektronen mit innerem fotoelektrischen Effekt<br />
* Ladungen müssen transportiert werden:<br />
** Verschieben von Ladungen durch Aneinanderreihung von Elektroden über Halbleitern -> jede Elektrode erzeugt ein elektrisches Feld<br />
** Elektronen sammeln sich an Elektrode -> Elektronenwolke<br />
** Erzeugen eines höheren Potentials an einer Nachbar-Elektrode veranlasst die Elektronenwolke, sich zu dieser Nachbar-Elektrode zu bewegen<br />
** somit analoges Schieberegister realisiert<br />
** Möglichkeit der mehrstufigen Realisierung<br />
<br />
=== Erläutern Sie die Funktionsweise von CCD-Zeilen ! ===<br />
* Einzelsensoren aneinanderpappen zu einer Zeile, bis zu 10.000 Elemente möglich<br />
* Effizientes Auslesen möglich durch parallele Ausgänge (Multi Channel Strukturen) => bis zu einigen kHz möglich<br />
* sehr kurze Integrationszeiten möglich => gute Beleuchtung<br />
<br />
=== Nennen Sie Vor- und Nachteile von CCD-Zeilen und -Matrizen bei der 2-D-Bilddatengewinnung! ===<br />
Blöde Frage: Vorteile gegenüber welchem Vergleichsobjekt denn?!<br />
Vorteile:<br />
* regelmäßige Anordnung der Einzelsensoren, damit Ortsausflösung implizit gegeben (bei Zeile: Wenn Zeile über Objekt bewegt wird)<br />
* Alle Pixel gleichzeitig ausgelesen, daher kein Verwischeffekt wie bei CMOS, dafür möglicherweise smear <br />
** Vergleiche CMOS: CMOS-Sensoren können wie ein Speicher ausgelesen werden, das heißt es kann über eine Adressierungsmatrix auf jedes Pixel zugegriffen werden. Daher wird jedes Pixel zu einem bestimmten Zeitpunkt ausgelesen, unabhängig von den anderen Pixeln. Liest du z.B. eine Zeile von links nach rechts, kann sich das aufzunehmende Objekt während der Auslesezeit schon weiter bewegt haben und du kriegst Bewegungsunschärfe. Bei Interline Transfer CCD hingegen schiebst du alle Ladungen gleichzeitig in ein Schiebregister, das heißt, die Daten aller Pixel werden gleichzeitig gewonnen. Klar, die Daten werden danach nochmal sequentiell über den ganzen Chip geschoben und erreichen den Speicher hintereinander. Aber die Daten sind zur gleichen Zeit entstanden.<br />
* Einfache Möglichkeit Halbbilder zu erzeugen, indem man einfach 1 Schieberegister für 2 Pixel nutzt<br />
<br />
Nachteile:<br />
* begrenzte Aufnahmegeschwindigkeit: Integrationszeit und Auslesezeit<br />
* Braucht recht komplexe Spannungsversorgung (Viele Verschiedene Spannungen zur Generierung der Potentialunterschiede beim Schieben)<br />
* Komplexes Taktregime notwendig (Takte zum Zeilen- und Spaltenschieben, sowie für Shutterimpulse)<br />
<br />
=== Erläutern Sie die Grundprinzipien von Interline- und Frame-Transfermatrizen! ===<br />
Schiebt man Ladungen durch den Sensor, gibt's smear-Effekte und außerdem dauert's lange, bis neue Ladungen gesammelt werden können. Zwei Ansätze: <br />
<br />
Interline:<br />
* für jedes Pixel ein lichtunempfindliches Schieberegister (oder ein Register für zwei Pixel), in das die Ladungen nach der Integrationszeit rein geschoben werden (parallel für alle Pixel, also sehr schnell)<br />
* dann in Ruhe die Schieberegister auslesen, währenddessen können die lichtempfindlichen Pixel schon wieder Ladungen generieren<br />
* Nachteil: Verringerung der Auflösung/Empfindlichkeit<br />
** umgehen z.B. mit Mikrolinsen, die das Licht, was auf die unempfindlichen Register trifft, auf die empfindlichen Pixel lenkt<br />
*** weiterer Nebeneffekt: drastische Reduzierung von Interferenzerscheinungen durch verschiedene Einfallswinkel<br />
Frame:<br />
* Das Hochschieben der Daten geht recht schnell, was dauert ist das sequentielle Einschieben für das horizontale Rausschieben (oberste Zeile)<br />
* Also: Obere Hälfte der CCD-Matrix abdecken und Daten schnell n den "dunklen" Bereich schieben<br />
* Nachteile: Halbierung der Aufnahmefläche, smear wird nicht beseitigt<br />
* Vorteil: Es können mehrere Bilder auf der abgedunkelten Chipfläche zwischengespeichert werden. Z.B. 3 Bilder speicherbar, wenn nur ein Viertel der Sensorfläche lichtempfindlich ist. -> Nutzbar bei Hochgeschwindigkeitsaufnahmen.<br />
<br />
=== Was versteht man unter einer Shutterkamera? Erläutern Sie das Grundprinzip! Wo kann man solche Systeme sinnvoll einsetzen? ===<br />
* bevor man neues Bild auslesen kann, muss das alte Bild fertig ausgelesen sein - und das kann lange dauern<br />
* also eigentlich keine Integrationszeiten möglich, die kürzer als die Auslesezeit sind<br />
* Lösung: shuttern. <br />
** dabei werden die in den Pixeln generierten Ladungen regelmäßig ins Substrat abgeführt, nur kurz vorm Auslesen werden die Ladungen bis zum Auslesen gehalten.<br />
** sozusagen ein invertierter Refresh ;)<br />
<br />
=== Wie kann man mit Interline-Transfermatrizen videonormgerechte Signale, d.h. nach dem interlaced-Prinzip zur Verfügung stellen ? ===<br />
* Wenn ein Schieberegister für zwei Pixel zur Verfügung steht, kann man bei Bild n Pixel gerader Zeilen auslesen, bei Bild n+1 Pixel ungerader Zeilen<br />
<br />
=== Wie kann man bei CCD-Matrixsensoren Hochgeschwindigkeitskameras realisieren.? ===<br />
* mehrere parallele Ein- und Ausgänge<br />
* mit Frame-Transfer-Matrizen, die mehrere Bilder speichern können (zB 90% des Sensors lichtunempfindlich, nur zum Speichern genutzt)<br />
<br />
=== Welche Vor- und Nachteile haben CMOS-Sensoren gegenüber CCD-Sensoren ? ===<br />
Vorteile:<br />
* Kamera on-a-chip möglich, da Zusatzelektronik direkt mit droffgepappt werden kann<br />
* beliebiges Auslesen der Pixel (ansprechen wie RAM mit Adressierungsmatrix)<br />
* Vorverarbeitung direkt in den Pixeln, z.B. Verstärkung (aktive Pixel) oder logarithmische Kennlinien (angelehnt an Sinnensempfinden des Menschen)<br />
* schnelleres Auslesen, da paralleles Auslesen möglich: n AD-Wandler<br />
* intelligentes Auslesen: Elektronik erkennt von vornherein, wo das zu beobachtende Objekt auf dem Chip abgebildet wird und liefert nur diese Bereiche = kleinere Datenmenge<br />
* kein Blooming<br />
* keine krummen Spannungen und zig Taktgeneratoren, das was gebraucht wird kann auch gleich auf den Sensor mit droff<br />
* billiger<br />
Nachteile:<br />
* stärkeres Rauschen durch mehr analoge Bauelemente (z.B. ein Transistor pro Pixel, mehrere AD-Wandler) => Festmusterrauschen<br />
* Dunkelsignalrauschen ist generell wesentlich temperaturabhängiger aufgrund der vielen integrierten Bauelemente<br />
* Zeilenrauschen nicht so einfach korrigierbar, da mehrere Ausgangsleitungen<br />
* da Pixel zu beliebigen Zeiten ausgelesen werden können, kann es zu Bewegungsunschärfen kommen<br />
<br />
== Multikanal (Farb-) Sensoren ==<br />
=== Was muss man bei der Realisierung von Farbaufnahmesystemen beachten ? ===<br />
* Farbe ist nur im Zusammenhang mit dem menschlichen Sehsystem definiert<br />
** Linearität zwischen Wellenlängenempfindlichkeit der Kamerasensoren und menschlichen Empfindlichkeiten gewünscht<br />
** verschiedene Farbreize können beim Menschen das gleiche Farbempfinden hervorrufen<br />
** Helligkeitsinformation wichtiger als Farbinformationen<br />
** unterschiedliche Empfindlichkeiten für unterschiedliche Wellenlängen, gleich helle blaue LED und rote LED werden nicht als gleich hell empfunden<br />
** Menschen nehmen die Farbe Grün besonders stark wahr<br />
** das alles is auch noch ortabhängig<br />
* Sensoren sind für größere Wellenlängenbereiche als das Auge empfindlich (IR, UV)<br />
* mit drei Farbkanälen können nicht alle Farben dargestellt werden, mehr Kanäle -> höhere Kosten<br />
<br />
=== Geben Sie Möglichkeiten der Aufnahme und Wiedergabe von Farbbildern an! ===<br />
Kamera:<br />
* Aufnahme mit 3 Sensoren, komplizierte und teure Objektive nötig, die das Bild positionsgenau in drei Wellenlängenbereiche (R,G,B) aufteilen<br />
* 1 Sensor, verschiedene Farbfilter, z.B. Rotieren mit Rad<br />
* 1 Sensor mit Pixeln, die empfindlich für verschiedene Wellenlängen sind (Consumer-Technik)<br />
<br />
Wiedergabe:<br />
* RGB Monitor<br />
* CMYK-Drucker<br />
* ...<br />
<br />
=== Welche Möglichkeiten zur Erfassung von Farbinformationen ergeben sich, wenn die Aufgabenstellung Verarbeitung der Farbinformation (Informationsextraktion) und nicht Wiedergabe von Farbbildern lautet. ===<br />
* (1) örtliche Informationen komplett weglassen, dh. nur Spektrum des Bildes aufnehmen<br />
** zum Beispiel um Lacke zu prüfen<br />
** Möglichkeit: mit Prisma Abbildung auf CCD-Zeile, Prisma bricht verschiedene Wellenlängen unterschiedlich stark => Spektrometer / Spektroskopie<br />
* (2) Verzicht auf komplette spektrale Auflösung, nur Teil des Spektrums erfassen (mich interessiert z.B. nur gelb) => Multikanel Vektor Bilder<br />
* Kombination aus (1) und (2), z.B. Farbkoordianten<br />
<br />
=== Erläutern Sie die Unterschiede zwischen 1- und 3-Chip-CCD-Farbkameras? ===<br />
* 3 Farbkanäle: R,G,B<br />
* 3-Chip: <br />
** drei verschiedene CCD-Sensoren mit gleicher Größe benutzen, je einer für R,G und B<br />
** Strahlteilung durch halbdurchässige Spiegel / Prismen oder Kaleidoskopoptik<br />
** Genaue Positionierung der CCDs nötig (im µm Bereich), damit örtliche Verteilung erhalten bleibt<br />
** teuer, aber beste Bilder<br />
* 1 Chip SW:<br />
** Filterrad mit versch. Filtern für verschiedene spektrale Empfindlichkeiten<br />
* 1-Chip RGB:<br />
** Gruppen von jeweils 4 Pixeln werden für verschiedene Farbkanäle genutzt: 1 Pixel R, 2 Pixel G, 1 Pixel B<br />
** Filterung mit Farbfiltern<br />
** Verlust von Auflösung<br />
** Möglichkeit der einfachen Berechnung für YCrCb Farbrum bei Interline-Matrizen: Geschicktes "Addieren" der Elektronen in den Schieberegistern, Subtrahieren mit S&H Schaltungen<br />
<br />
== Kamera ==<br />
<br />
=== Wodurch wird die reale photometrische Auflösung (Anzahl realistischer Graustufen) von CCD-Sensoren bestimmt? ===<br />
* Güte des AD-Wandlers<br />
* Dunkelsignal (zu hohes Dunkelrauschen macht hohe Auflösung des AD-Wandlers sinnlos)<br />
<br />
=== Nennen Sie Parameter, die die Abweichung vom idealen Verhalten bei CCD-Matrizen beschreiben! ===<br />
* Apertur der Pixel - nicht überall gleich empfindlich, außerdem Beeinflussung der Nachbarpixel<br />
* Dunkelsignalrauschen - Ladungsgenerierung ohne Lichteinfall<br />
* Güte des Siliziums (Dotierung, Verunreinigung) nicht überall auf dem Chip identisch => Unterschiede der Empfindlichkeit bei exakt gleichmäßiger Beleuchtung messbar, Abweichungen im bereich 1-3%<br />
<br />
=== Was versteht man unter Transferineffektivität? Wie wirkt sie sich aus? ===<br />
* Beim Schieben der Ladungen werden nicht alle Elektronen bewegt, ein kleiner Teil bleibt "hängen" <br />
** Grund: Abstoßung der Elektronen untereinander<br />
* Daher gehen Informationen über die Leuchtstärke, die auf das entsprechende Pixel wirkte, verloren oder werden fälschlicherweise auf andere Pixel abgebildet (wenn die Elektronen beim späteren Schieben nachkommen)<br />
<br />
=== Was wird mit dem Begriff Shading bei CCD-Kameras erfasst? Wie kann man die Auswirkungen korrigieren? ===<br />
* Objektiv leuchtet nicht den gesamten Bereich des Sensors gleich gut aus, vor allem am Rand<br />
* Lösung: bessere bzw. größere Objektive<br />
<br />
=== Was versteht man unter Smear bei Frame-Transfermatrizen ? Welche Möglichkeiten zur Verminderung werden eingesetzt ? ===<br />
* Ladungen von unten werden nach oben durchgereicht, sie passieren also lichtempfindliche Pixel<br />
* passieren Ladungen aus unbeleuchteten Pixeln beleuchtete Pixel, werden während der Ladungsverschiebung neue Elektronen generiert<br />
* dunkle Pixel werden daher also heller interpretiert, als sie eigentlich sind<br />
* Gesamtbild sieht dann aus wie verwischt -> smear<br />
<br />
== Beleuchtung ==<br />
<br />
=== Nennen Sie einige Anforderungen an Szenenbeleuchtung am Beispiel einer selbst gewählten Bildverarbeitungsaufgabenstellung ! ===<br />
* Angenommen ich will rote von grünen Tomaten unterscheiden, so brauch ich Auflicht, welches sowohl einen Rot, als auch einen Grünanteil beinhaltet.<br />
* Kratzer in Spiegel untersuchen mit Dunkelfeld oder Hellfeld<br />
* Länge eines Werkstückes mit Durchlicht und telezentrischem Objektiv<br />
<br />
=== Welche Rolle spielt die spektrale Verteilung der Strahlung bei der Szenenbeleuchtung für Bildverarbeitungssysteme? ===<br />
* Das Licht enthält z.B. Infrarotstrahlung, die der Mensch nicht sieht, welche aber die Kamera stark stört<br />
** beleuchtet man eine Szene, weil man etwas messen will, nimmt der Sensor auch Informationen über IR-Strahlung auf, die man garnicht sehen kann<br />
** Verfälschung der Messung.<br />
* Manche Strukturen brechen Licht wellenlängenabhägig=> gut für Spektrometer, kann aber auch stören<br />
* Interferenz wellenlängenabhägig<br />
* Lösung: Filter<br />
<br />
=== Erläutern Sie die Grundaussage des photometrischen Grundgesetzes! ===<br />
* Das photometrische Grundgesetz beschreibt den Leistungsaustausch zwischen einer leuchtenden Fläche A1 (mit der Leuchtdichte L) und einer bestrahlten Fläche A2 in Abhängigkeit ihrer Verdrehung im Raum<br />
<br />
=== Welche physikalischen Effekte werden zur Erzeugung von Licht eingesetzt ? ===<br />
* '''Die Glühbirne, was wirklich passiert'''<br />
** Durch das Anlegen eines elektrischen Feldes an den Glühdraht werden die Elektronen im Metall beschleunigt<br />
*** Die Valenzband Elektronen können sich in Metallen frei bewegen → Elektronengas<br />
** Es kommt zu Zusammenstößen der Elektronen mit Elektronen und den Atomrümpfen → der Draht hat einen Widerstand<br />
** Die übertragene Energie der Elektronen an die Atomrümpfe führt dazu das diese eine größere Eigenschwingung ausführen → Die Temperatur des Glühdrathes steigt<br />
** Jeder warme Körper sendet ein kontinuierliches Spektrum an elektromagnetischer Strahlung aus ([http://de.wikipedia.org/wiki/Plancksches_Strahlungsgesetz Plancksches Strahlungsgesetz])<br />
** Ist der Drath genügend heiß so können wir die abgegebene Strahlung im sichtbaren Bereich sehen (nur ein geringer Teil der Strahlung wir in diesem Bereich ausgesendet) → Die Lampe leuchtet<br />
<br />
<br />
Jan's Version:<br />
* Licht durch Glühemmission (z.B. Glühbirnen, Halogenlampen) -> stochastische Bewegung der Elektronen, daher Reibungsenergie mit den Atomen des Glüchdrahtes => Abgabe vieler unterschiedlicher Wellenlängen<br />
** kontinuierliches Spektrum<br />
* Licht durch Stoßionisation (z.B. in Entladungslampen) -> Elektronen stoßen Atome => heben Elektronen kurzzeitig auf höheres Energie-Niveau, beim Rückfallen werden Lichquanten freigesetzt<br />
** diskretes Spektrum<br />
* Licht am PN-Übergang ( in LEDs) -> Rekombination der Elektronen im Valenzband setzt Photonen frei<br />
** diskretes Spektrum<br />
<br />
<br />
Martin's Version:<br />
* Licht durch Glühemmission (z.B. Glühbirnen, Halogenlampen) -> Thermische Energie in den Atomen hebt Elektronen kurzzeitig auf höheres Energie-Niveau und beim Rückfallen werden Lichquanten freigesetzt<br />
** kontinuierliches Spektrum<br />
* Licht durch Stoßionisation (z.B. in Entladungslampen) -> Rekombination der Ionen mit den Elektronen setzen Photonen frei<br />
** diskretes Spektrum<br />
* Licht am PN-Übergang ( in LEDs) -> Rekombination der Elektronen im Valenzband setzt Photonen frei<br />
** diskretes Spektrum<br />
<br />
=== Nennen Sie einige Lampentypen und erläutern Sie die Prinzipien der Lichterzeugung ? ===<br />
* Wärmestrahlung: Material erwärmen, bis es Strahlung im Wellenlängenbereich von Licht abstrahlt, z.B. Elektronen durch Wolframdraht drängeln<br />
** kontinuierliches Spektrum mit hohem Infrarotanteil<br />
* Entladungslampen: Ionisierung von Gasen durch Spannungen, Freisetzung von Photonen.<br />
** diskretes Spektrum, kontinuierlich nur mit Beschichtungen (Anregung von Leuchtstoffen)<br />
* Halbleiter: Rekombination am PN-Übergang, damit wieder die Energieniveaugeschichte<br />
** diskretes Spektrum, kontinuierlich nur mit Beschichtungen (Anregung von Leuchtstoffen)<br />
<br />
=== Nennen Sie Eigenschaften unterschiedlicher Lampentypen ! ===<br />
Glühbirnen:<br />
* Vorteil:<br />
** billig<br />
** breites Spektrum<br />
** einfache Beschaltung<br />
** in jeder Größe herstellbar<br />
* Nachteil<br />
** recht kurze Lebensdauer<br />
** hohe Lichtineffizienz (Dunkelleuchter)<br />
** Spektrum ist temperaturabhängig<br />
** Verdunkeln mit der Zeit, da Wolfram sich am Glas absetzt<br />
* Verbesserung: <br />
** Halogenleuchten - Halogen bindet Wolfram, dadurch werden die Glaswände nicht dunkler. Gleichzeitig bildet sich um den glühenden Wolframdraht eine Wolke, die weiteren Abtrag verhindert (irgendwie :-/ )<br />
** Beschichtung des Glases, was das Austreten der Infrarotstrahlung mindert und somit zu einer Erhitzung des Wendels beiträgt. (Spart Energie)<br />
<br />
<br />
Entladungslampen<br />
* Vorteil<br />
** Teilweise hohe Leuchtstärke (XEON-Licht), vor allem bei Hochdrucklampen<br />
** "Dünnes" Spektrum (kann auch von Vorteil sein, z.B. wenn andere Farben stören würden)<br />
* Nachteil<br />
** Eigentlich nur kleines, diskretes, meist nicht sichtbares Spektrum (Lösung durch Fluriszierende Beschichtung)<br />
** Benötigt etwas komplexere Beschaltung (Elektromagnetische Vorschaltegeräte EVG)<br />
** Nichtlineare Kennlinie<br />
** Nicht beliebig klein baubar, da Elektroden relativ groß sind<br />
** Hochdrucklampen müssen erst "hochfahren" und sind explosionsgefährdet<br />
<br />
<br />
Leuchtdioden<br />
* Vorteil<br />
** Klein und in vielen Farben herstellbar<br />
** Vergleichsweise hohe Lebensdauer <br />
** Geringer Verbrauch bei hoher Leistung<br />
* Nachteil<br />
** Dimmen durch PWM<br />
** Temperaturabhängiges Licht (in Intensität und Wellenlänge)<br />
** recht schmales Spektrum -> Weißes Licht durch RGB-Kombination oder Blaue LED mit Phosphorschicht<br />
** Lassen mit der Zeit an Leuchtkraft nach<br />
** Großteil der Photonen dringen nicht nach außen, weil sie IM PN-Übergang entstehen<br />
=== Was versteht man unter dem Flimmerfaktor von Lampen? Welche Rolle spielt er für CCD-Bildaufnahmesysteme (Zeilen, Matrizen)? ===<br />
* Lampen werden mit Wechselstrom oder gepulster Gleichspannung betrieben, geben daher nicht kontinuierlich die gleiche Strahlung ab sondern mit bestimmter Frequenz -> Flimmern<br />
* CCD: so kurze Integrationszeiten, dass dieses Flimmern die Bildaufnahme beeinflusst<br />
* Abtastung immer zum gleichen Zeitpunkt: kein Problem<br />
* Abtastung zu verschiedenen Zeitpunkten: Bei einem Bild Lampe hell, beim anderen Lampe gerade dunkel: Müst<br />
<br />
=== Wie kann man eine näherungsweise gleichmäßige Ausleuchtung einer ebenen Fläche erreichen? ===<br />
* Durch Punktleuchten mit einem Höhen/Abstands-Verhältnis von 0,82<br />
* Durch Ringleuchten mit einem Höhen/Durchmesser-Verhältnis von (unwichtig)<br />
<br />
== Optische Abbildung ==<br />
<br />
=== Wie wirken sich Modulationstransferfunktion, Verzeichnung, Randabfall von Objektiven auf die resultierenden Eigenschaften eines Bildaufnahmekanals aus! ===<br />
<br />
=== Nennen Sie Anforderungen aus der Bildverarbeitung, die Einfluss auf die Auswahl von Objektiven haben! ===<br />
* Abstand es Objektes zum Sensor => Brennweite<br />
* Größe des Objektes, Größe des Sensors => Abbildungsmaßsstab, Brennweite<br />
* Art der Messaufgabe (hyperzentrisches, endozentrisches oder telezentrisches Objektiv)<br />
<br />
=== Was versteht man unter telezentrischem Strahlengang? Welche Vorteile bringt er? Wie ist er erreichbar? ===<br />
* Öffnungsblende im Brennpunkt der Bildseite -> lässt nur Brennpunktstrahlen durch, die auf Objektseite Parallelstrahlen sind<br />
* keine Verzeichnung des Objektes, unabhängig vom Abstand des Objektes zur Linse -> ideal zur Längenmessung<br />
<br />
=== Erläutern Sie das Phänomen des Randabfalls der durch ein Objektiv abgebildeten Strahldichten! ===<br />
* Am Besten malt man eine Skizze des Optischen Systems. Auf der man sieht dann, dass die Hauptstrahlen alle durch den Linsenmittelpunkt müssen. Dann geht man davon aus, dass die größte Lichtaussendung eines Objektes genau entlang dieses Hauptstrahls am Größten ist. Wenn man jetzt die Objekthöhe besonders hoch wählt, dann sieht man, dass dessen Hauptstrahl in der Bildebene immer weiter von der optischen Achse wegwandert (also nach Unten). Ab einem bestimmten Winkel wird dann der Hauptstrahl nichtmehr auf die Sensorfläche treffen weil er in der Bildebene darunter liegt. Dann wird auch nicht mehr das gesamte Licht auf den Sensor treffen. Ergo: Je steiler der Winkel, desto dunkler werden die lichtpunkte des Objektes auf dem Sensor, was man dann Randabfall nennt.<br />
** Nette Theorie aber folgende Punkte werden nicht erklärt<br />
*** Der Randabfall ist sofort zu beobachten auch wenn sich der leuchtende Punkt nur minimal neben der Optischen Achse befindet (Der Punkt kann also noch locker auf die CCD abgebildet werden)<br />
*** Der Randabfall läßt sich nicht dadurch beheben, dass man die CCD - Größer macht, was ja nach dieser Theorie gehen müsste :)<br />
*** --DarkGhost 16:12, 20. Mär. 2009 (UTC)<br />
* '''Der Randabfall, oder auch das cos^4 Gesetz'''<br />
** Folgende Annahme: Linse ist ideal, keine Blende, keine Lichtverluste in der Optik der Kamera<br />
** Betrachten wir eine Fläche A die gleichmäßig Licht in Richtung Kamera aussendet und sich in der optischen Achse befindet<br />
*** Der Raumwinkel der leuchtenden Fläche ergibt sich damit zu <br> <math>\omega = \frac{d^2}{4 \cdot g^2} \cdot 1sr </math><br />
*** d ... Linsendurchmesser<br />
*** g ... Abstand der Fläche zur Linse<br />
** Wird nun diese Fläche ein Stückchen aus der optischen Achse bewegt ändern sich folgende Dinge<br />
*** Der Raumwinkel wird kleiner (mit <math>cos(\alpha)</math>)<br />
*** Die Fläche verkürzt sich perspektivisch (mit <math>cos(\alpha)</math>)<br />
*** Die Entfernung zur Fläche wird größer <br />
*** Die Linse ist von der Fläche aus gesehen auch nicht mehr Kreisförmig sondern elliptisch<br />
** Daraus lässt sich sich Ableiten das sich der Lichtstrom von der Fläche zur Kamera (weiter durch Optik und auf CCD) wie folgt ändert <br> <math> \Phi' = \Phi_0 cos^4 (\alpha) </math><br />
*** <math>\alpha</math> ... ist der Winkel zwischen Diagonale zur Linse <br />
*** <math>\Phi_0</math> ... Lichtstrom der Fläche in der optischen Achse<br />
*** <math>\Phi'</math> ... Lichtstrom der Fläche unter einem Winkel zur optischen Achse<br />
** Das ganze bezeichnet man dann als Randabfall<br />
** selbst bei Lichtverlust in der Optik und Blende bleibt der Haupteinfluss beim <math>cos^4</math> Gesetz<br />
<br />
=== Für welche Abbildungsverhältnisse sind Fotoobjektive prädestiniert? Welche Probleme sind beim Einsatz für die digitale Bildverarbeitung zu beachten? ===<br />
<br />
== Bildverarbeitungssysteme ==<br />
<br />
=== Warum steht bei Bildverarbeitungssystemen die Forderung nach einem eigenständigen Bilddatenbus? ===<br />
* große Datenmengen, meist streng strukturiert<br />
* hohe Echtzeitanforderungen, daher hohe Übertragungsrate gewünscht, bestenfalls isochron<br />
* Möglichkeit der parallelen Verarbeitung<br />
* ein Datum idR klein, 8 Bit zB<br />
<br />
=== Welche Forderungen sind an analoge Bilddatenkanäle (on-chip-Verstärker, ..., Vorverstärker für ADU) zu stellen? ===<br />
* geringe Temperaturabhängigkeiten<br />
* gutes Rauschverhalten<br />
* hoher Anspruch an Linearität<br />
<br />
=== Was versteht man unter Auflösung und was unter Genauigkeit eines ADU? ===<br />
Auflösung:<br />
* ja wie viel Bit die Möhre halt hat ;)<br />
Genauigkeit:<br />
* Güte der Diskretisierung des Wertebereichs<br />
* SNR<br />
<br />
=== Welche Forderungen sind an Bilddatenausgabegeräte (Visualisierung über Monitor) zu stellen? Ordnen Sie dabei Unterschiede zwischen interaktiver und automatischer Bildverarbeitung ein! ===<br />
Martin's Theorie:<br />
* Bei automatisierungsteschnischen Prozessen reicht es, wenn ich dem Bediener ein aufbereites, meinetwegen tausendmal gefiltertes Bild darstelle um dem "Experten" eventuell zu erklären, weshalb mein System diese Klassifikation getroffen hat. <br />
* Bei einer interaktiven Bildverarbeitung muss also der Bediener entscheiden, wie der nächste Schritt zu erfolgen hat. Daher brauch ich ein hochaufgelöstes Bild, was auch etliche Sekunden angezeigt werden muss.<br />
<br />
=== Welche Architekturmerkmale von µ-Prozessoren sind für die Bilddatenverarbeitung von größerem Interesse? ===<br />
* viele Register, Cache<br />
* Vektor-Rechenwerke, zB SSE, MMX<br />
* viele Datenwege (Speichercontroller aufm Die, HT-Link usw)<br />
* hohe Flexibilität bezüglich Zusatzhardware (HW für PCI, RAM erweitern usw.)<br />
* breite Verfügbarkeit, Preis (Massenproduktion)<br />
<br />
=== Wodurch sind moderne Bus-Systeme der µ-Rechentechnik gekennzeichnet? Welche Parameter sind für die Bildverarbeitung besonders interessant? ===<br />
* hoher Datendurchsatz, geringe Zugriffszeiten, Parallelität (Pipelining, SMT)<br />
* mehrere Busse parallel, zB bei Speicher: Zugriff auf Speicher (Daten reinfüttern) lähmt CPU nicht<br />
* hohe Datenmengen durch Bilder erzeugt => müssen transportiert werden<br />
<br />
=== Welche Eigenschaften zeichnen µ-Controller gegenüber µ-Prozessoren aus? ===<br />
µ-Prozessoren:<br />
* ursprünglich für Steuerungsaufgaben entwickelt, daraus entwickelten sich Heimrechner<br />
* daher große Vielfalt an Software und Hardware, auch ausgereift durch viele Beta-Tester<br />
* einfache Mensch-Maschine-Kommunikation<br />
* viele Zusatzbauelemente benötigt (Board, gRaka, taktgeber)<br />
* sehr begrenzte Echtzeitfähigkeiten von Soft- und Hardware<br />
* kurze Lebensdauer / Verfügbarkeit der Bauteile<br />
* Standard-PCs nicht für Industrie-Einsatz geeignet, Industrie PCs laut, teuer, stromhungrig<br />
=> Geeignet für Systeme mit hohem Anteil an Mensch-Maschine-Kommunikation<br />
<br />
µ-Controller:<br />
* kleinere Systeme, wichtigste Bauteile auf dem Chip integriert<br />
* Spezialhardware für bestimmte Aufgaben (µC: Steuerung, DSPs: MAC-Befehler) => speziell auf das Problem angepasste HW verfügbar<br />
* costum design möglich<br />
* Echtzeitanforderungen realisierbar<br />
* Parallelität <br />
=> Geeignet für autonome Systeme<br />
<br />
=== Welche Voraussetzungen an die Aufgabenstellungen müssen erfüllt sein, um sie auf parallelen Strukturen abarbeiten zu können? Nennen Sie Beispiel aus der Bildverarbeitung! ===<br />
* Algorithmen müssen sich parallelisieren lassen, rein sequentielle Abläufe nicht geeignet<br />
SIMD: Parallelität der Daten, Daten lassen sich aufteilen<br />
* Filterstrukturen<br />
* Nachbarschaftssuche <br />
* Bild in mehrere Teile unterteilen und einzeln berechnen <br />
* Ganze Arbeitsabläufe parallelisieren (zB Fehlstücke vom Band schmeißen, System1 untersucht gerade Fehlstücke, System2 ungerade)<br />
MISD: <br />
* Pipelining, dh einen Algorithmus nicht von einem Chip verarbeiten lassen sondern von mehreren Chips<br />
* Einzelne Chips sind Koniferen auf ihrem Gebiet und können die speziellen Aufgabe daher mit Gravur lösen<br />
* Kommunikationsoverhead <br />
MIMD:<br />
* verschiedene Aufgaben mit verschiedenen Daten parallel ausführen<br />
<br />
=== Was sind parallel arbeitende Rechnersysteme? Welche Strukturen sind für Aufgaben der Bildverarbeitung denkbar? ===<br />
* Parallel arbeitende Rechensysteme sind Rechner, die mehrere Berechnugnsschritte zur gleichen Zeit erledigen können<br />
* Bildverarbeitung: hohe Datenmengen und/oder hohe Echtzeitanforderung, dadurch können schon einfachste Probleme komplex werden<br />
* daher kiwi-Prinzip: kill it with iron, solange Hardware reinschmeißen, bis es funktioniert ;)<br />
* dh: Aufgaben aufteilen auf verschiedene Rechensysteme<br />
<br />
=== Nennen Sie einige vom von-Neumann-Prinzip abweichende Rechnerarchitekturen und erläutern Sie diese Strukturen! ===<br />
* Harvard: getrennte Speicher für Daten und Programme, zB bei Cache in x86 CPUs<br />
* Filtersturkturen: Multiplizierer an jeder Datenleitung zum beaufschlagen mit Konstanten, dahinter Addierer für alle Datenleitungen -> hochparallel<br />
<br />
=== Zeigen Sie einige Möglichkeiten der Verlagerung von Algorithmen der Bildverarbeitung in Hardware! ===<br />
* bevorzeugt für Algorithmen, die identisch für das ganze Bild sind<br />
* Punktoperationen (zB Grauwerte verändern) => Look Up Tables (einfach und schnell)<br />
* Einfache Filter können in Hardware gemacht werden, Miltiplikation von Konstanten udn Aufaddierung <br />
* nichlineare Filer in fester Nachbarschaft: Sortieren, Neuordnung etc<br />
* Neuronale Netze mit einfachen Neurocomputern<br />
<br />
=== Welche Möglichkeiten bieten Look-up-table, um Aufgaben der digitalen Bildverarbeitung in Hardware zu lösen? ===<br />
* Hardware ist nur ein schneller Speicher, der eine einfache funktionale Abbildung realisiert<br />
* x ist Eingang, f(x) ist Ausgang<br />
* Koeffizienten bzw. Funktionswerte sollten sich verändern lassen (programmierbare rEgister)<br />
<br />
=== Skizzieren Sie eine Struktur, die es gestattet, Grauwerthistogramme on-line zu erzeugen! ===<br />
* Speicher bauen, dessen Adress-Eingang der Grauwert des Pixels ist<br />
* Ausgang des Speichers inkrementiert den Eingang<br />
* ergibt n Zähler, die über Adresse angesprochen werden, Adresse ist der Grauwert <br />
<br />
=== Skizzieren Sie eine Struktur. die es gestattet, ausgehend von einem seriellen digitalen Bilddatenfluß, die Umgebung eines Bildpunktes parallel zur Verfügung zu stellen? ===<br />
* Sender sendet seriellen Datenstrom und Empfänger soll den in parallelen strom zerlegen<br />
* Sortierung des Bildes nach Zeilen => für jede Zeile steht am Empfänger ein Register zur Verfügung<br />
* Sender und Empfänger müssen beide wissen, wie viele Pixel/Zeile es gibt und wie viel Zeilen, so sind keine Trennzeichen erforderlich<br />
* Empfänger kann seriellen Eingangsdatenstrom nach einer Zeile kappen und für eine neue Zeile einen neuen Ausgangsdatenstrom erzeugen, Zwischenspeicher in rEgistern<br />
<br />
=== Wie könnte die Struktur einer Hardwarebaugruppe aussehen, die es gestattet, Faltungsoperationen on-line durchzuführen? ===<br />
* zuerst mal heißt das on-the-fly ;)<br />
* Filterstruktur: sum(a*x)<br />
* Pixel trödeln parallel ein => n Datenleitungen für n Pixel<br />
* jedes Pixel mit Konstante aus Register multiplizieren => pro Datenleitung ein Konstantenregister<br />
* Am Ende ein großer Adder, der alle Werte addiert<br />
<br />
=== Klassifizieren Sie Bildverarbeitungssysteme nach Aufgabenstellung und daraus resultierender einzusetzender Rechentechnik! ===<br />
* PC, Industrie-PC für Anwendungen mit Mensch-Maschine Kommunikation<br />
* µC, DSP für standalone Systeme<br />
<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Systemtechnik_der_Bildverarbeitung:Fragenkatalog&diff=7015Systemtechnik der Bildverarbeitung:Fragenkatalog2009-03-20T15:34:15Z<p>DarkGhost: /* Welche physikalischen Effekte werden zur Erzeugung von Licht eingesetzt ? */</p>
<hr />
<div>== Technische Sehsysteme ==<br />
=== Nennen Sie Parameter, von denen die notwendige Rechenleistung eines Bildverarbeitungssystems abhängt! ===<br />
* Datenmenge<br />
** Größe des Objektes (z.B. 300mm Si-Wafer)<br />
** Bildauflösung (Strukturen bis 100 nm auf dem Wafer sollen erkennbar sein) -> das bestimmt Anzahl der Pixel auf dem Sensor<br />
** Farbe? Graustufen? Auflösung von Farbe und Graustufen (8 Bit, 4 Bit, ...)<br />
* Geschwindigkeit<br />
** Wie oft sollen Bilder aufgenommen werden, zB 50x pro Sekunde oder einmal pro Stunde?<br />
<br />
=== Schätzen Sie anhand eines selbstgewählten Beispiels aus der Automatisierungstechnik die Größenordnung der notwendigen Rechenleistung ab! ===<br />
* Werkstück aus Box nehmen: 128x128 Pixel, 16 Bit Daten<br />
== Sensoren ==<br />
=== Erläutern Sie die Phänomene „innerer photoelektrischer Effekt“ und „äußerer photoelektrischer Effekt“ ! ===<br />
Innerer: <br />
* Photonen dringen in ein Material, z.B. einen Halbleiter, ein und lösen dort Elektronen aus den Atomen. Somit entstehen freie Ladungsträger. Wird eine Spannung angelegt, ist daher ein Stromfluss möglich. <br />
Äußerer: <br />
* Photonen treffen auf die Oberfläche eines Materials, z.B. eines Metalls, auf und schlagen Elektronen heraus, die dann außerhalb des Materials als freie Ladungsträger zur Verfügung stehen. <br />
* Ordnet man Elektroden um das Material an, kann ein Stromfluss beobachtet werden.<br />
<br />
=== Wie kann man mit Einzelsensoren ortsaufgelöste Bilddaten gewinnen ? ===<br />
* Man nehme zwei rotierende Spiegel deren Roationsachse um 90° gekippt ist<br />
** Bild kann so "abgerastert" werden<br />
** nur vergleichsweise langsame Bildaufnahme möglich<br />
* Nimmt man eine CCD-Zeile zur Aufnahme reicht ein rotierender Spiegel um ein Bild aufzunehmen<br />
* Ein Aufbau mit einem [http://de.wikipedia.org/wiki/Mikrospiegelaktor DMD-Chip] ist auch denkbar<br />
<br />
* Indem man sie über das zu vermessende Objekt bewegt. Beispiel: CCD-Zeile über Müll bewegen zur Mülltrennung. (jaja, eine Zeile ist kein Einzelsensor...)<br />
* günstig da, wo sich das Objekt schon von selbst bewegt, zB aufm Fließband<br />
* Vorteil: Schnelleres Auslesen, damit höhere Bilderfassungsfrequenz - wenn die Beleuchtung stimmt, da die Integrationszeiten klein werden<br />
<br />
=== Erläutern Sie das Grundprinzip von CCD-Bauelementen ! ===<br />
* Anordnung von Einzelsensoren in einer Matrix, jeder dieser Sensoren generiert Elektronen mit innerem fotoelektrischen Effekt<br />
* Ladungen müssen transportiert werden:<br />
** Verschieben von Ladungen durch Aneinanderreihung von Elektroden über Halbleitern -> jede Elektrode erzeugt ein elektrisches Feld<br />
** Elektronen sammeln sich an Elektrode -> Elektronenwolke<br />
** Erzeugen eines höheren Potentials an einer Nachbar-Elektrode veranlasst die Elektronenwolke, sich zu dieser Nachbar-Elektrode zu bewegen<br />
** somit analoges Schieberegister realisiert<br />
** Möglichkeit der mehrstufigen Realisierung<br />
<br />
=== Erläutern Sie die Funktionsweise von CCD-Zeilen ! ===<br />
* Einzelsensoren aneinanderpappen zu einer Zeile, bis zu 10.000 Elemente möglich<br />
* Effizientes Auslesen möglich durch parallele Ausgänge (Multi Channel Strukturen) => bis zu einigen kHz möglich<br />
* sehr kurze Integrationszeiten möglich => gute Beleuchtung<br />
<br />
=== Nennen Sie Vor- und Nachteile von CCD-Zeilen und -Matrizen bei der 2-D-Bilddatengewinnung! ===<br />
Blöde Frage: Vorteile gegenüber welchem Vergleichsobjekt denn?!<br />
Vorteile:<br />
* regelmäßige Anordnung der Einzelsensoren, damit Ortsausflösung implizit gegeben (bei Zeile: Wenn Zeile über Objekt bewegt wird)<br />
* Alle Pixel gleichzeitig ausgelesen, daher kein Verwischeffekt wie bei CMOS, dafür möglicherweise smear <br />
** Vergleiche CMOS: CMOS-Sensoren können wie ein Speicher ausgelesen werden, das heißt es kann über eine Adressierungsmatrix auf jedes Pixel zugegriffen werden. Daher wird jedes Pixel zu einem bestimmten Zeitpunkt ausgelesen, unabhängig von den anderen Pixeln. Liest du z.B. eine Zeile von links nach rechts, kann sich das aufzunehmende Objekt während der Auslesezeit schon weiter bewegt haben und du kriegst Bewegungsunschärfe. Bei Interline Transfer CCD hingegen schiebst du alle Ladungen gleichzeitig in ein Schiebregister, das heißt, die Daten aller Pixel werden gleichzeitig gewonnen. Klar, die Daten werden danach nochmal sequentiell über den ganzen Chip geschoben und erreichen den Speicher hintereinander. Aber die Daten sind zur gleichen Zeit entstanden.<br />
* Einfache Möglichkeit Halbbilder zu erzeugen, indem man einfach 1 Schieberegister für 2 Pixel nutzt<br />
<br />
Nachteile:<br />
* begrenzte Aufnahmegeschwindigkeit: Integrationszeit und Auslesezeit<br />
* Braucht recht komplexe Spannungsversorgung (Viele Verschiedene Spannungen zur Generierung der Potentialunterschiede beim Schieben)<br />
* Komplexes Taktregime notwendig (Takte zum Zeilen- und Spaltenschieben, sowie für Shutterimpulse)<br />
<br />
=== Erläutern Sie die Grundprinzipien von Interline- und Frame-Transfermatrizen! ===<br />
Schiebt man Ladungen durch den Sensor, gibt's smear-Effekte und außerdem dauert's lange, bis neue Ladungen gesammelt werden können. Zwei Ansätze: <br />
<br />
Interline:<br />
* für jedes Pixel ein lichtunempfindliches Schieberegister (oder ein Register für zwei Pixel), in das die Ladungen nach der Integrationszeit rein geschoben werden (parallel für alle Pixel, also sehr schnell)<br />
* dann in Ruhe die Schieberegister auslesen, währenddessen können die lichtempfindlichen Pixel schon wieder Ladungen generieren<br />
* Nachteil: Verringerung der Auflösung/Empfindlichkeit<br />
** umgehen z.B. mit Mikrolinsen, die das Licht, was auf die unempfindlichen Register trifft, auf die empfindlichen Pixel lenkt<br />
*** weiterer Nebeneffekt: drastische Reduzierung von Interferenzerscheinungen durch verschiedene Einfallswinkel<br />
Frame:<br />
* Das Hochschieben der Daten geht recht schnell, was dauert ist das sequentielle Einschieben für das horizontale Rausschieben (oberste Zeile)<br />
* Also: Obere Hälfte der CCD-Matrix abdecken und Daten schnell n den "dunklen" Bereich schieben<br />
* Nachteile: Halbierung der Aufnahmefläche, smear wird nicht beseitigt<br />
* Vorteil: Es können mehrere Bilder auf der abgedunkelten Chipfläche zwischengespeichert werden. Z.B. 3 Bilder speicherbar, wenn nur ein Viertel der Sensorfläche lichtempfindlich ist. -> Nutzbar bei Hochgeschwindigkeitsaufnahmen.<br />
<br />
=== Was versteht man unter einer Shutterkamera? Erläutern Sie das Grundprinzip! Wo kann man solche Systeme sinnvoll einsetzen? ===<br />
* bevor man neues Bild auslesen kann, muss das alte Bild fertig ausgelesen sein - und das kann lange dauern<br />
* also eigentlich keine Integrationszeiten möglich, die kürzer als die Auslesezeit sind<br />
* Lösung: shuttern. <br />
** dabei werden die in den Pixeln generierten Ladungen regelmäßig ins Substrat abgeführt, nur kurz vorm Auslesen werden die Ladungen bis zum Auslesen gehalten.<br />
** sozusagen ein invertierter Refresh ;)<br />
<br />
=== Wie kann man mit Interline-Transfermatrizen videonormgerechte Signale, d.h. nach dem interlaced-Prinzip zur Verfügung stellen ? ===<br />
* Wenn ein Schieberegister für zwei Pixel zur Verfügung steht, kann man bei Bild n Pixel gerader Zeilen auslesen, bei Bild n+1 Pixel ungerader Zeilen<br />
<br />
=== Wie kann man bei CCD-Matrixsensoren Hochgeschwindigkeitskameras realisieren.? ===<br />
* mehrere parallele Ein- und Ausgänge<br />
* mit Frame-Transfer-Matrizen, die mehrere Bilder speichern können (zB 90% des Sensors lichtunempfindlich, nur zum Speichern genutzt)<br />
<br />
=== Welche Vor- und Nachteile haben CMOS-Sensoren gegenüber CCD-Sensoren ? ===<br />
Vorteile:<br />
* Kamera on-a-chip möglich, da Zusatzelektronik direkt mit droffgepappt werden kann<br />
* beliebiges Auslesen der Pixel (ansprechen wie RAM mit Adressierungsmatrix)<br />
* Vorverarbeitung direkt in den Pixeln, z.B. Verstärkung (aktive Pixel) oder logarithmische Kennlinien (angelehnt an Sinnensempfinden des Menschen)<br />
* schnelleres Auslesen, da paralleles Auslesen möglich: n AD-Wandler<br />
* intelligentes Auslesen: Elektronik erkennt von vornherein, wo das zu beobachtende Objekt auf dem Chip abgebildet wird und liefert nur diese Bereiche = kleinere Datenmenge<br />
* kein Blooming<br />
* keine krummen Spannungen und zig Taktgeneratoren, das was gebraucht wird kann auch gleich auf den Sensor mit droff<br />
* billiger<br />
Nachteile:<br />
* stärkeres Rauschen durch mehr analoge Bauelemente (z.B. ein Transistor pro Pixel, mehrere AD-Wandler) => Festmusterrauschen<br />
* Dunkelsignalrauschen ist generell wesentlich temperaturabhängiger aufgrund der vielen integrierten Bauelemente<br />
* Zeilenrauschen nicht so einfach korrigierbar, da mehrere Ausgangsleitungen<br />
* da Pixel zu beliebigen Zeiten ausgelesen werden können, kann es zu Bewegungsunschärfen kommen<br />
<br />
== Multikanal (Farb-) Sensoren ==<br />
=== Was muss man bei der Realisierung von Farbaufnahmesystemen beachten ? ===<br />
* Farbe ist nur im Zusammenhang mit dem menschlichen Sehsystem definiert<br />
** Linearität zwischen Wellenlängenempfindlichkeit der Kamerasensoren und menschlichen Empfindlichkeiten gewünscht<br />
** verschiedene Farbreize können beim Menschen das gleiche Farbempfinden hervorrufen<br />
** Helligkeitsinformation wichtiger als Farbinformationen<br />
** unterschiedliche Empfindlichkeiten für unterschiedliche Wellenlängen, gleich helle blaue LED und rote LED werden nicht als gleich hell empfunden<br />
** Menschen nehmen die Farbe Grün besonders stark wahr<br />
** das alles is auch noch ortabhängig<br />
* Sensoren sind für größere Wellenlängenbereiche als das Auge empfindlich (IR, UV)<br />
* mit drei Farbkanälen können nicht alle Farben dargestellt werden, mehr Kanäle -> höhere Kosten<br />
<br />
=== Geben Sie Möglichkeiten der Aufnahme und Wiedergabe von Farbbildern an! ===<br />
Kamera:<br />
* Aufnahme mit 3 Sensoren, komplizierte und teure Objektive nötig, die das Bild positionsgenau in drei Wellenlängenbereiche (R,G,B) aufteilen<br />
* 1 Sensor, verschiedene Farbfilter, z.B. Rotieren mit Rad<br />
* 1 Sensor mit Pixeln, die empfindlich für verschiedene Wellenlängen sind (Consumer-Technik)<br />
<br />
Wiedergabe:<br />
* RGB Monitor<br />
* CMYK-Drucker<br />
* ...<br />
<br />
=== Welche Möglichkeiten zur Erfassung von Farbinformationen ergeben sich, wenn die Aufgabenstellung Verarbeitung der Farbinformation (Informationsextraktion) und nicht Wiedergabe von Farbbildern lautet. ===<br />
* (1) örtliche Informationen komplett weglassen, dh. nur Spektrum des Bildes aufnehmen<br />
** zum Beispiel um Lacke zu prüfen<br />
** Möglichkeit: mit Prisma Abbildung auf CCD-Zeile, Prisma bricht verschiedene Wellenlängen unterschiedlich stark => Spektrometer / Spektroskopie<br />
* (2) Verzicht auf komplette spektrale Auflösung, nur Teil des Spektrums erfassen (mich interessiert z.B. nur gelb) => Multikanel Vektor Bilder<br />
* Kombination aus (1) und (2), z.B. Farbkoordianten<br />
<br />
=== Erläutern Sie die Unterschiede zwischen 1- und 3-Chip-CCD-Farbkameras? ===<br />
* 3 Farbkanäle: R,G,B<br />
* 3-Chip: <br />
** drei verschiedene CCD-Sensoren mit gleicher Größe benutzen, je einer für R,G und B<br />
** Strahlteilung durch halbdurchässige Spiegel / Prismen oder Kaleidoskopoptik<br />
** Genaue Positionierung der CCDs nötig (im µm Bereich), damit örtliche Verteilung erhalten bleibt<br />
** teuer, aber beste Bilder<br />
* 1 Chip SW:<br />
** Filterrad mit versch. Filtern für verschiedene spektrale Empfindlichkeiten<br />
* 1-Chip RGB:<br />
** Gruppen von jeweils 4 Pixeln werden für verschiedene Farbkanäle genutzt: 1 Pixel R, 2 Pixel G, 1 Pixel B<br />
** Filterung mit Farbfiltern<br />
** Verlust von Auflösung<br />
** Möglichkeit der einfachen Berechnung für YCrCb Farbrum bei Interline-Matrizen: Geschicktes "Addieren" der Elektronen in den Schieberegistern, Subtrahieren mit S&H Schaltungen<br />
<br />
== Kamera ==<br />
<br />
=== Wodurch wird die reale photometrische Auflösung (Anzahl realistischer Graustufen) von CCD-Sensoren bestimmt? ===<br />
* Güte des AD-Wandlers<br />
* Dunkelsignal (zu hohes Dunkelrauschen macht hohe Auflösung des AD-Wandlers sinnlos)<br />
<br />
=== Nennen Sie Parameter, die die Abweichung vom idealen Verhalten bei CCD-Matrizen beschreiben! ===<br />
* Apertur der Pixel - nicht überall gleich empfindlich, außerdem Beeinflussung der Nachbarpixel<br />
* Dunkelsignalrauschen - Ladungsgenerierung ohne Lichteinfall<br />
* Güte des Siliziums (Dotierung, Verunreinigung) nicht überall auf dem Chip identisch => Unterschiede der Empfindlichkeit bei exakt gleichmäßiger Beleuchtung messbar, Abweichungen im bereich 1-3%<br />
<br />
=== Was versteht man unter Transferineffektivität? Wie wirkt sie sich aus? ===<br />
* Beim Schieben der Ladungen werden nicht alle Elektronen bewegt, ein kleiner Teil bleibt "hängen" <br />
** Grund: Abstoßung der Elektronen untereinander<br />
* Daher gehen Informationen über die Leuchtstärke, die auf das entsprechende Pixel wirkte, verloren oder werden fälschlicherweise auf andere Pixel abgebildet (wenn die Elektronen beim späteren Schieben nachkommen)<br />
<br />
=== Was wird mit dem Begriff Shading bei CCD-Kameras erfasst? Wie kann man die Auswirkungen korrigieren? ===<br />
* Objektiv leuchtet nicht den gesamten Bereich des Sensors gleich gut aus, vor allem am Rand<br />
* Lösung: bessere bzw. größere Objektive<br />
<br />
=== Was versteht man unter Smear bei Frame-Transfermatrizen ? Welche Möglichkeiten zur Verminderung werden eingesetzt ? ===<br />
* Ladungen von unten werden nach oben durchgereicht, sie passieren also lichtempfindliche Pixel<br />
* passieren Ladungen aus unbeleuchteten Pixeln beleuchtete Pixel, werden während der Ladungsverschiebung neue Elektronen generiert<br />
* dunkle Pixel werden daher also heller interpretiert, als sie eigentlich sind<br />
* Gesamtbild sieht dann aus wie verwischt -> smear<br />
<br />
== Beleuchtung ==<br />
<br />
=== Nennen Sie einige Anforderungen an Szenenbeleuchtung am Beispiel einer selbst gewählten Bildverarbeitungsaufgabenstellung ! ===<br />
* Angenommen ich will rote von grünen Tomaten unterscheiden, so brauch ich Auflicht, welches sowohl einen Rot, als auch einen Grünanteil beinhaltet.<br />
* Kratzer in Spiegel untersuchen mit Dunkelfeld oder Hellfeld<br />
* Länge eines Werkstückes mit Durchlicht und telezentrischem Objektiv<br />
<br />
=== Welche Rolle spielt die spektrale Verteilung der Strahlung bei der Szenenbeleuchtung für Bildverarbeitungssysteme? ===<br />
* Das Licht enthält z.B. Infrarotstrahlung, die der Mensch nicht sieht, welche aber die Kamera stark stört<br />
** beleuchtet man eine Szene, weil man etwas messen will, nimmt der Sensor auch Informationen über IR-Strahlung auf, die man garnicht sehen kann<br />
** Verfälschung der Messung.<br />
* Manche Strukturen brechen Licht wellenlängenabhägig=> gut für Spektrometer, kann aber auch stören<br />
* Interferenz wellenlängenabhägig<br />
* Lösung: Filter<br />
<br />
=== Erläutern Sie die Grundaussage des photometrischen Grundgesetzes! ===<br />
* Das photometrische Grundgesetz beschreibt den Leistungsaustausch zwischen einer leuchtenden Fläche A1 (mit der Leuchtdichte L) und einer bestrahlten Fläche A2 in Abhängigkeit ihrer Verdrehung im Raum<br />
<br />
=== Welche physikalischen Effekte werden zur Erzeugung von Licht eingesetzt ? ===<br />
* '''Die Glühbirne, was wirklich passiert'''<br />
** Durch das Anlegen eines elektrischen Feldes an den Glühdraht werden die Elektronen im Metall beschleunigt<br />
*** Die Valenzband Elektronen können sich in Metallen frei bewegen → Elektronengas<br />
** Es kommt zu Zusammenstößen der Elektronen mit Elektronen und den Atomrümpfen → der Draht hat einen Widerstand<br />
** Die übertragene Energie der Elektronen an die Atomrümpfe führt dazu das diese eine größere Eigenschwingung ausführen → Die Temperatur des Glühdrathes steigt<br />
** Jeder warme Körper sendet ein kontinuierliches Spektrum an elektromagnetischer Strahlung aus ([http://de.wikipedia.org/wiki/Plancksches_Strahlungsgesetz Plancksches Strahlungsgesetz])<br />
** Ist der Drath genügend heiß so können wir die abgegebene Strahlung im sichtbaren Bereich sehen (nur ein geringer Teil der Strahlung wir in diesem Bereich ausgesendet) → Die Lampe leuchtet<br />
<br />
<br />
Jan's Version:<br />
* Licht durch Glühemmission (z.B. Glühbirnen, Halogenlampen) -> stochastische Bewegung der Elektronen, daher Reibungsenergie mit den Atomen des Glüchdrahtes => Abgabe vieler unterschiedlicher Wellenlängen<br />
** kontinuierliches Spektrum<br />
* Licht durch Stoßionisation (z.B. in Entladungslampen) -> Elektronen stoßen Atome => heben Elektronen kurzzeitig auf höheres Energie-Niveau, beim Rückfallen werden Lichquanten freigesetzt<br />
** diskretes Spektrum<br />
* Licht am PN-Übergang ( in LEDs) -> Rekombination der Elektronen im Valenzband setzt Photonen frei<br />
** diskretes Spektrum<br />
<br />
<br />
Martin's Version:<br />
* Licht durch Glühemmission (z.B. Glühbirnen, Halogenlampen) -> Thermische Energie in den Atomen hebt Elektronen kurzzeitig auf höheres Energie-Niveau und beim Rückfallen werden Lichquanten freigesetzt<br />
** kontinuierliches Spektrum<br />
* Licht durch Stoßionisation (z.B. in Entladungslampen) -> Rekombination der Ionen mit den Elektronen setzen Photonen frei<br />
** diskretes Spektrum<br />
* Licht am PN-Übergang ( in LEDs) -> Rekombination der Elektronen im Valenzband setzt Photonen frei<br />
** diskretes Spektrum<br />
<br />
=== Nennen Sie einige Lampentypen und erläutern Sie die Prinzipien der Lichterzeugung ? ===<br />
* Wärmestrahlung: Material erwärmen, bis es Strahlung im Wellenlängenbereich von Licht abstrahlt, z.B. Elektronen durch Wolframdraht drängeln<br />
** kontinuierliches Spektrum mit hohem Infrarotanteil<br />
* Entladungslampen: Ionisierung von Gasen durch Spannungen, Freisetzung von Photonen.<br />
** diskretes Spektrum, kontinuierlich nur mit Beschichtungen (Anregung von Leuchtstoffen)<br />
* Halbleiter: Rekombination am PN-Übergang, damit wieder die Energieniveaugeschichte<br />
** diskretes Spektrum, kontinuierlich nur mit Beschichtungen (Anregung von Leuchtstoffen)<br />
<br />
=== Nennen Sie Eigenschaften unterschiedlicher Lampentypen ! ===<br />
Glühbirnen:<br />
* Vorteil:<br />
** billig<br />
** breites Spektrum<br />
** einfache Beschaltung<br />
** in jeder Größe herstellbar<br />
* Nachteil<br />
** recht kurze Lebensdauer<br />
** hohe Lichtineffizienz (Dunkelleuchter)<br />
** Spektrum ist temperaturabhängig<br />
** Verdunkeln mit der Zeit, da Wolfram sich am Glas absetzt<br />
* Verbesserung: <br />
** Halogenleuchten - Halogen bindet Wolfram, dadurch werden die Glaswände nicht dunkler. Gleichzeitig bildet sich um den glühenden Wolframdraht eine Wolke, die weiteren Abtrag verhindert (irgendwie :-/ )<br />
** Beschichtung des Glases, was das Austreten der Infrarotstrahlung mindert und somit zu einer Erhitzung des Wendels beiträgt. (Spart Energie)<br />
<br />
<br />
Entladungslampen<br />
* Vorteil<br />
** Teilweise hohe Leuchtstärke (XEON-Licht), vor allem bei Hochdrucklampen<br />
** "Dünnes" Spektrum (kann auch von Vorteil sein, z.B. wenn andere Farben stören würden)<br />
* Nachteil<br />
** Eigentlich nur kleines, diskretes, meist nicht sichtbares Spektrum (Lösung durch Fluriszierende Beschichtung)<br />
** Benötigt etwas komplexere Beschaltung (Elektromagnetische Vorschaltegeräte EVG)<br />
** Nichtlineare Kennlinie<br />
** Nicht beliebig klein baubar, da Elektroden relativ groß sind<br />
** Hochdrucklampen müssen erst "hochfahren" und sind explosionsgefährdet<br />
<br />
<br />
Leuchtdioden<br />
* Vorteil<br />
** Klein und in vielen Farben herstellbar<br />
** Vergleichsweise hohe Lebensdauer <br />
** Geringer Verbrauch bei hoher Leistung<br />
* Nachteil<br />
** Dimmen durch PWM<br />
** Temperaturabhängiges Licht (in Intensität und Wellenlänge)<br />
** recht schmales Spektrum -> Weißes Licht durch RGB-Kombination oder Blaue LED mit Phosphorschicht<br />
** Lassen mit der Zeit an Leuchtkraft nach<br />
** Großteil der Photonen dringen nicht nach außen, weil sie IM PN-Übergang entstehen<br />
=== Was versteht man unter dem Flimmerfaktor von Lampen? Welche Rolle spielt er für CCD-Bildaufnahmesysteme (Zeilen, Matrizen)? ===<br />
* Lampen werden mit Wechselstrom oder gepulster Gleichspannung betrieben, geben daher nicht kontinuierlich die gleiche Strahlung ab sondern mit bestimmter Frequenz -> Flimmern<br />
* CCD: so kurze Integrationszeiten, dass dieses Flimmern die Bildaufnahme beeinflusst<br />
* Abtastung immer zum gleichen Zeitpunkt: kein Problem<br />
* Abtastung zu verschiedenen Zeitpunkten: Bei einem Bild Lampe hell, beim anderen Lampe gerade dunkel: Müst<br />
<br />
=== Wie kann man eine näherungsweise gleichmäßige Ausleuchtung einer ebenen Fläche erreichen? ===<br />
* Durch Punktleuchten mit einem Höhen/Abstands-Verhältnis von 0,82<br />
* Durch Ringleuchten mit einem Höhen/Durchmesser-Verhältnis von (unwichtig)<br />
<br />
== Optische Abbildung ==<br />
<br />
=== Wie wirken sich Modulationstransferfunktion, Verzeichnung, Randabfall von Objektiven auf die resultierenden Eigenschaften eines Bildaufnahmekanals aus! ===<br />
<br />
=== Nennen Sie Anforderungen aus der Bildverarbeitung, die Einfluss auf die Auswahl von Objektiven haben! ===<br />
* Abstand es Objektes zum Sensor => Brennweite<br />
* Größe des Objektes, Größe des Sensors => Abbildungsmaßsstab, Brennweite<br />
* Art der Messaufgabe (hyperzentrisches, endozentrisches oder telezentrisches Objektiv)<br />
<br />
=== Was versteht man unter telezentrischem Strahlengang? Welche Vorteile bringt er? Wie ist er erreichbar? ===<br />
* Öffnungsblende im Brennpunkt der Bildseite -> lässt nur Brennpunktstrahlen durch, die auf Objektseite Parallelstrahlen sind<br />
* keine Verzeichnung des Objektes, unabhängig vom Abstand des Objektes zur Linse -> ideal zur Längenmessung<br />
<br />
=== Erläutern Sie das Phänomen des Randabfalls der durch ein Objektiv abgebildeten Strahldichten! ===<br />
* Am Besten malt man eine Skizze des Optischen Systems. Auf der man sieht dann, dass die Hauptstrahlen alle durch den Linsenmittelpunkt müssen. Dann geht man davon aus, dass die größte Lichtaussendung eines Objektes genau entlang dieses Hauptstrahls am Größten ist. Wenn man jetzt die Objekthöhe besonders hoch wählt, dann sieht man, dass dessen Hauptstrahl in der Bildebene immer weiter von der optischen Achse wegwandert (also nach Unten). Ab einem bestimmten Winkel wird dann der Hauptstrahl nichtmehr auf die Sensorfläche treffen weil er in der Bildebene darunter liegt. Dann wird auch nicht mehr das gesamte Licht auf den Sensor treffen. Ergo: Je steiler der Winkel, desto dunkler werden die lichtpunkte des Objektes auf dem Sensor, was man dann Randabfall nennt.<br />
<br />
=== Für welche Abbildungsverhältnisse sind Fotoobjektive prädestiniert? Welche Probleme sind beim Einsatz für die digitale Bildverarbeitung zu beachten? ===<br />
<br />
== Bildverarbeitungssysteme ==<br />
<br />
=== Warum steht bei Bildverarbeitungssystemen die Forderung nach einem eigenständigen Bilddatenbus? ===<br />
* große Datenmengen, meist streng strukturiert<br />
* hohe Echtzeitanforderungen, daher hohe Übertragungsrate gewünscht, bestenfalls isochron<br />
* Möglichkeit der parallelen Verarbeitung<br />
* ein Datum idR klein, 8 Bit zB<br />
<br />
=== Welche Forderungen sind an analoge Bilddatenkanäle (on-chip-Verstärker, ..., Vorverstärker für ADU) zu stellen? ===<br />
* geringe Temperaturabhängigkeiten<br />
* gutes Rauschverhalten<br />
* hoher Anspruch an Linearität<br />
<br />
=== Was versteht man unter Auflösung und was unter Genauigkeit eines ADU? ===<br />
Auflösung:<br />
* ja wie viel Bit die Möhre halt hat ;)<br />
Genauigkeit:<br />
* Güte der Diskretisierung des Wertebereichs<br />
* SNR<br />
<br />
=== Welche Forderungen sind an Bilddatenausgabegeräte (Visualisierung über Monitor) zu stellen? Ordnen Sie dabei Unterschiede zwischen interaktiver und automatischer Bildverarbeitung ein! ===<br />
Martin's Theorie:<br />
* Bei automatisierungsteschnischen Prozessen reicht es, wenn ich dem Bediener ein aufbereites, meinetwegen tausendmal gefiltertes Bild darstelle um dem "Experten" eventuell zu erklären, weshalb mein System diese Klassifikation getroffen hat. <br />
* Bei einer interaktiven Bildverarbeitung muss also der Bediener entscheiden, wie der nächste Schritt zu erfolgen hat. Daher brauch ich ein hochaufgelöstes Bild, was auch etliche Sekunden angezeigt werden muss.<br />
<br />
=== Welche Architekturmerkmale von µ-Prozessoren sind für die Bilddatenverarbeitung von größerem Interesse? ===<br />
* viele Register, Cache<br />
* Vektor-Rechenwerke, zB SSE, MMX<br />
* viele Datenwege (Speichercontroller aufm Die, HT-Link usw)<br />
* hohe Flexibilität bezüglich Zusatzhardware (HW für PCI, RAM erweitern usw.)<br />
* breite Verfügbarkeit, Preis (Massenproduktion)<br />
<br />
=== Wodurch sind moderne Bus-Systeme der µ-Rechentechnik gekennzeichnet? Welche Parameter sind für die Bildverarbeitung besonders interessant? ===<br />
* hoher Datendurchsatz, geringe Zugriffszeiten, Parallelität (Pipelining, SMT)<br />
* mehrere Busse parallel, zB bei Speicher: Zugriff auf Speicher (Daten reinfüttern) lähmt CPU nicht<br />
* hohe Datenmengen durch Bilder erzeugt => müssen transportiert werden<br />
<br />
=== Welche Eigenschaften zeichnen µ-Controller gegenüber µ-Prozessoren aus? ===<br />
µ-Prozessoren:<br />
* ursprünglich für Steuerungsaufgaben entwickelt, daraus entwickelten sich Heimrechner<br />
* daher große Vielfalt an Software und Hardware, auch ausgereift durch viele Beta-Tester<br />
* einfache Mensch-Maschine-Kommunikation<br />
* viele Zusatzbauelemente benötigt (Board, gRaka, taktgeber)<br />
* sehr begrenzte Echtzeitfähigkeiten von Soft- und Hardware<br />
* kurze Lebensdauer / Verfügbarkeit der Bauteile<br />
* Standard-PCs nicht für Industrie-Einsatz geeignet, Industrie PCs laut, teuer, stromhungrig<br />
=> Geeignet für Systeme mit hohem Anteil an Mensch-Maschine-Kommunikation<br />
<br />
µ-Controller:<br />
* kleinere Systeme, wichtigste Bauteile auf dem Chip integriert<br />
* Spezialhardware für bestimmte Aufgaben (µC: Steuerung, DSPs: MAC-Befehler) => speziell auf das Problem angepasste HW verfügbar<br />
* costum design möglich<br />
* Echtzeitanforderungen realisierbar<br />
* Parallelität <br />
=> Geeignet für autonome Systeme<br />
<br />
=== Welche Voraussetzungen an die Aufgabenstellungen müssen erfüllt sein, um sie auf parallelen Strukturen abarbeiten zu können? Nennen Sie Beispiel aus der Bildverarbeitung! ===<br />
* Algorithmen müssen sich parallelisieren lassen, rein sequentielle Abläufe nicht geeignet<br />
SIMD: Parallelität der Daten, Daten lassen sich aufteilen<br />
* Filterstrukturen<br />
* Nachbarschaftssuche <br />
* Bild in mehrere Teile unterteilen und einzeln berechnen <br />
* Ganze Arbeitsabläufe parallelisieren (zB Fehlstücke vom Band schmeißen, System1 untersucht gerade Fehlstücke, System2 ungerade)<br />
MISD: <br />
* Pipelining, dh einen Algorithmus nicht von einem Chip verarbeiten lassen sondern von mehreren Chips<br />
* Einzelne Chips sind Koniferen auf ihrem Gebiet und können die speziellen Aufgabe daher mit Gravur lösen<br />
* Kommunikationsoverhead <br />
MIMD:<br />
* verschiedene Aufgaben mit verschiedenen Daten parallel ausführen<br />
<br />
=== Was sind parallel arbeitende Rechnersysteme? Welche Strukturen sind für Aufgaben der Bildverarbeitung denkbar? ===<br />
* Parallel arbeitende Rechensysteme sind Rechner, die mehrere Berechnugnsschritte zur gleichen Zeit erledigen können<br />
* Bildverarbeitung: hohe Datenmengen und/oder hohe Echtzeitanforderung, dadurch können schon einfachste Probleme komplex werden<br />
* daher kiwi-Prinzip: kill it with iron, solange Hardware reinschmeißen, bis es funktioniert ;)<br />
* dh: Aufgaben aufteilen auf verschiedene Rechensysteme<br />
<br />
=== Nennen Sie einige vom von-Neumann-Prinzip abweichende Rechnerarchitekturen und erläutern Sie diese Strukturen! ===<br />
* Harvard: getrennte Speicher für Daten und Programme, zB bei Cache in x86 CPUs<br />
* Filtersturkturen: Multiplizierer an jeder Datenleitung zum beaufschlagen mit Konstanten, dahinter Addierer für alle Datenleitungen -> hochparallel<br />
<br />
=== Zeigen Sie einige Möglichkeiten der Verlagerung von Algorithmen der Bildverarbeitung in Hardware! ===<br />
* bevorzeugt für Algorithmen, die identisch für das ganze Bild sind<br />
* Punktoperationen (zB Grauwerte verändern) => Look Up Tables (einfach und schnell)<br />
* Einfache Filter können in Hardware gemacht werden, Miltiplikation von Konstanten udn Aufaddierung <br />
* nichlineare Filer in fester Nachbarschaft: Sortieren, Neuordnung etc<br />
* Neuronale Netze mit einfachen Neurocomputern<br />
<br />
=== Welche Möglichkeiten bieten Look-up-table, um Aufgaben der digitalen Bildverarbeitung in Hardware zu lösen? ===<br />
* Hardware ist nur ein schneller Speicher, der eine einfache funktionale Abbildung realisiert<br />
* x ist Eingang, f(x) ist Ausgang<br />
* Koeffizienten bzw. Funktionswerte sollten sich verändern lassen (programmierbare rEgister)<br />
<br />
=== Skizzieren Sie eine Struktur, die es gestattet, Grauwerthistogramme on-line zu erzeugen! ===<br />
* Speicher bauen, dessen Adress-Eingang der Grauwert des Pixels ist<br />
* Ausgang des Speichers inkrementiert den Eingang<br />
* ergibt n Zähler, die über Adresse angesprochen werden, Adresse ist der Grauwert <br />
<br />
=== Skizzieren Sie eine Struktur. die es gestattet, ausgehend von einem seriellen digitalen Bilddatenfluß, die Umgebung eines Bildpunktes parallel zur Verfügung zu stellen? ===<br />
* Sender sendet seriellen Datenstrom und Empfänger soll den in parallelen strom zerlegen<br />
* Sortierung des Bildes nach Zeilen => für jede Zeile steht am Empfänger ein Register zur Verfügung<br />
* Sender und Empfänger müssen beide wissen, wie viele Pixel/Zeile es gibt und wie viel Zeilen, so sind keine Trennzeichen erforderlich<br />
* Empfänger kann seriellen Eingangsdatenstrom nach einer Zeile kappen und für eine neue Zeile einen neuen Ausgangsdatenstrom erzeugen, Zwischenspeicher in rEgistern<br />
<br />
=== Wie könnte die Struktur einer Hardwarebaugruppe aussehen, die es gestattet, Faltungsoperationen on-line durchzuführen? ===<br />
* zuerst mal heißt das on-the-fly ;)<br />
* Filterstruktur: sum(a*x)<br />
* Pixel trödeln parallel ein => n Datenleitungen für n Pixel<br />
* jedes Pixel mit Konstante aus Register multiplizieren => pro Datenleitung ein Konstantenregister<br />
* Am Ende ein großer Adder, der alle Werte addiert<br />
<br />
=== Klassifizieren Sie Bildverarbeitungssysteme nach Aufgabenstellung und daraus resultierender einzusetzender Rechentechnik! ===<br />
* PC, Industrie-PC für Anwendungen mit Mensch-Maschine Kommunikation<br />
* µC, DSP für standalone Systeme<br />
<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Systemtechnik_der_Bildverarbeitung:Fragenkatalog&diff=7014Systemtechnik der Bildverarbeitung:Fragenkatalog2009-03-20T13:39:09Z<p>DarkGhost: /* Wie kann man mit Einzelsensoren ortsaufgelöste Bilddaten gewinnen ? */</p>
<hr />
<div>== Technische Sehsysteme ==<br />
=== Nennen Sie Parameter, von denen die notwendige Rechenleistung eines Bildverarbeitungssystems abhängt! ===<br />
* Datenmenge<br />
** Größe des Objektes (z.B. 300mm Si-Wafer)<br />
** Bildauflösung (Strukturen bis 100 nm auf dem Wafer sollen erkennbar sein) -> das bestimmt Anzahl der Pixel auf dem Sensor<br />
** Farbe? Graustufen? Auflösung von Farbe und Graustufen (8 Bit, 4 Bit, ...)<br />
* Geschwindigkeit<br />
** Wie oft sollen Bilder aufgenommen werden, zB 50x pro Sekunde oder einmal pro Stunde?<br />
<br />
=== Schätzen Sie anhand eines selbstgewählten Beispiels aus der Automatisierungstechnik die Größenordnung der notwendigen Rechenleistung ab! ===<br />
* Werkstück aus Box nehmen: 128x128 Pixel, 16 Bit Daten<br />
== Sensoren ==<br />
=== Erläutern Sie die Phänomene „innerer photoelektrischer Effekt“ und „äußerer photoelektrischer Effekt“ ! ===<br />
Innerer: <br />
* Photonen dringen in ein Material, z.B. einen Halbleiter, ein und lösen dort Elektronen aus den Atomen. Somit entstehen freie Ladungsträger. Wird eine Spannung angelegt, ist daher ein Stromfluss möglich. <br />
Äußerer: <br />
* Photonen treffen auf die Oberfläche eines Materials, z.B. eines Metalls, auf und schlagen Elektronen heraus, die dann außerhalb des Materials als freie Ladungsträger zur Verfügung stehen. <br />
* Ordnet man Elektroden um das Material an, kann ein Stromfluss beobachtet werden.<br />
<br />
=== Wie kann man mit Einzelsensoren ortsaufgelöste Bilddaten gewinnen ? ===<br />
* Man nehme zwei rotierende Spiegel deren Roationsachse um 90° gekippt ist<br />
** Bild kann so "abgerastert" werden<br />
** nur vergleichsweise langsame Bildaufnahme möglich<br />
* Nimmt man eine CCD-Zeile zur Aufnahme reicht ein rotierender Spiegel um ein Bild aufzunehmen<br />
* Ein Aufbau mit einem [http://de.wikipedia.org/wiki/Mikrospiegelaktor DMD-Chip] ist auch denkbar<br />
<br />
* Indem man sie über das zu vermessende Objekt bewegt. Beispiel: CCD-Zeile über Müll bewegen zur Mülltrennung. (jaja, eine Zeile ist kein Einzelsensor...)<br />
* günstig da, wo sich das Objekt schon von selbst bewegt, zB aufm Fließband<br />
* Vorteil: Schnelleres Auslesen, damit höhere Bilderfassungsfrequenz - wenn die Beleuchtung stimmt, da die Integrationszeiten klein werden<br />
<br />
=== Erläutern Sie das Grundprinzip von CCD-Bauelementen ! ===<br />
* Anordnung von Einzelsensoren in einer Matrix, jeder dieser Sensoren generiert Elektronen mit innerem fotoelektrischen Effekt<br />
* Ladungen müssen transportiert werden:<br />
** Verschieben von Ladungen durch Aneinanderreihung von Elektroden über Halbleitern -> jede Elektrode erzeugt ein elektrisches Feld<br />
** Elektronen sammeln sich an Elektrode -> Elektronenwolke<br />
** Erzeugen eines höheren Potentials an einer Nachbar-Elektrode veranlasst die Elektronenwolke, sich zu dieser Nachbar-Elektrode zu bewegen<br />
** somit analoges Schieberegister realisiert<br />
** Möglichkeit der mehrstufigen Realisierung<br />
<br />
=== Erläutern Sie die Funktionsweise von CCD-Zeilen ! ===<br />
* Einzelsensoren aneinanderpappen zu einer Zeile, bis zu 10.000 Elemente möglich<br />
* Effizientes Auslesen möglich durch parallele Ausgänge (Multi Channel Strukturen) => bis zu einigen kHz möglich<br />
* sehr kurze Integrationszeiten möglich => gute Beleuchtung<br />
<br />
=== Nennen Sie Vor- und Nachteile von CCD-Zeilen und -Matrizen bei der 2-D-Bilddatengewinnung! ===<br />
Blöde Frage: Vorteile gegenüber welchem Vergleichsobjekt denn?!<br />
Vorteile:<br />
* regelmäßige Anordnung der Einzelsensoren, damit Ortsausflösung implizit gegeben (bei Zeile: Wenn Zeile über Objekt bewegt wird)<br />
* Alle Pixel gleichzeitig ausgelesen, daher kein Verwischeffekt wie bei CMOS, dafür möglicherweise smear <br />
** Vergleiche CMOS: CMOS-Sensoren können wie ein Speicher ausgelesen werden, das heißt es kann über eine Adressierungsmatrix auf jedes Pixel zugegriffen werden. Daher wird jedes Pixel zu einem bestimmten Zeitpunkt ausgelesen, unabhängig von den anderen Pixeln. Liest du z.B. eine Zeile von links nach rechts, kann sich das aufzunehmende Objekt während der Auslesezeit schon weiter bewegt haben und du kriegst Bewegungsunschärfe. Bei Interline Transfer CCD hingegen schiebst du alle Ladungen gleichzeitig in ein Schiebregister, das heißt, die Daten aller Pixel werden gleichzeitig gewonnen. Klar, die Daten werden danach nochmal sequentiell über den ganzen Chip geschoben und erreichen den Speicher hintereinander. Aber die Daten sind zur gleichen Zeit entstanden.<br />
* Einfache Möglichkeit Halbbilder zu erzeugen, indem man einfach 1 Schieberegister für 2 Pixel nutzt<br />
<br />
Nachteile:<br />
* begrenzte Aufnahmegeschwindigkeit: Integrationszeit und Auslesezeit<br />
* Braucht recht komplexe Spannungsversorgung (Viele Verschiedene Spannungen zur Generierung der Potentialunterschiede beim Schieben)<br />
* Komplexes Taktregime notwendig (Takte zum Zeilen- und Spaltenschieben, sowie für Shutterimpulse)<br />
<br />
=== Erläutern Sie die Grundprinzipien von Interline- und Frame-Transfermatrizen! ===<br />
Schiebt man Ladungen durch den Sensor, gibt's smear-Effekte und außerdem dauert's lange, bis neue Ladungen gesammelt werden können. Zwei Ansätze: <br />
<br />
Interline:<br />
* für jedes Pixel ein lichtunempfindliches Schieberegister (oder ein Register für zwei Pixel), in das die Ladungen nach der Integrationszeit rein geschoben werden (parallel für alle Pixel, also sehr schnell)<br />
* dann in Ruhe die Schieberegister auslesen, währenddessen können die lichtempfindlichen Pixel schon wieder Ladungen generieren<br />
* Nachteil: Verringerung der Auflösung/Empfindlichkeit<br />
** umgehen z.B. mit Mikrolinsen, die das Licht, was auf die unempfindlichen Register trifft, auf die empfindlichen Pixel lenkt<br />
*** weiterer Nebeneffekt: drastische Reduzierung von Interferenzerscheinungen durch verschiedene Einfallswinkel<br />
Frame:<br />
* Das Hochschieben der Daten geht recht schnell, was dauert ist das sequentielle Einschieben für das horizontale Rausschieben (oberste Zeile)<br />
* Also: Obere Hälfte der CCD-Matrix abdecken und Daten schnell n den "dunklen" Bereich schieben<br />
* Nachteile: Halbierung der Aufnahmefläche, smear wird nicht beseitigt<br />
* Vorteil: Es können mehrere Bilder auf der abgedunkelten Chipfläche zwischengespeichert werden. Z.B. 3 Bilder speicherbar, wenn nur ein Viertel der Sensorfläche lichtempfindlich ist. -> Nutzbar bei Hochgeschwindigkeitsaufnahmen.<br />
<br />
=== Was versteht man unter einer Shutterkamera? Erläutern Sie das Grundprinzip! Wo kann man solche Systeme sinnvoll einsetzen? ===<br />
* bevor man neues Bild auslesen kann, muss das alte Bild fertig ausgelesen sein - und das kann lange dauern<br />
* also eigentlich keine Integrationszeiten möglich, die kürzer als die Auslesezeit sind<br />
* Lösung: shuttern. <br />
** dabei werden die in den Pixeln generierten Ladungen regelmäßig ins Substrat abgeführt, nur kurz vorm Auslesen werden die Ladungen bis zum Auslesen gehalten.<br />
** sozusagen ein invertierter Refresh ;)<br />
<br />
=== Wie kann man mit Interline-Transfermatrizen videonormgerechte Signale, d.h. nach dem interlaced-Prinzip zur Verfügung stellen ? ===<br />
* Wenn ein Schieberegister für zwei Pixel zur Verfügung steht, kann man bei Bild n Pixel gerader Zeilen auslesen, bei Bild n+1 Pixel ungerader Zeilen<br />
<br />
=== Wie kann man bei CCD-Matrixsensoren Hochgeschwindigkeitskameras realisieren.? ===<br />
* mehrere parallele Ein- und Ausgänge<br />
* mit Frame-Transfer-Matrizen, die mehrere Bilder speichern können (zB 90% des Sensors lichtunempfindlich, nur zum Speichern genutzt)<br />
<br />
=== Welche Vor- und Nachteile haben CMOS-Sensoren gegenüber CCD-Sensoren ? ===<br />
Vorteile:<br />
* Kamera on-a-chip möglich, da Zusatzelektronik direkt mit droffgepappt werden kann<br />
* beliebiges Auslesen der Pixel (ansprechen wie RAM mit Adressierungsmatrix)<br />
* Vorverarbeitung direkt in den Pixeln, z.B. Verstärkung (aktive Pixel) oder logarithmische Kennlinien (angelehnt an Sinnensempfinden des Menschen)<br />
* schnelleres Auslesen, da paralleles Auslesen möglich: n AD-Wandler<br />
* intelligentes Auslesen: Elektronik erkennt von vornherein, wo das zu beobachtende Objekt auf dem Chip abgebildet wird und liefert nur diese Bereiche = kleinere Datenmenge<br />
* kein Blooming<br />
* keine krummen Spannungen und zig Taktgeneratoren, das was gebraucht wird kann auch gleich auf den Sensor mit droff<br />
* billiger<br />
Nachteile:<br />
* stärkeres Rauschen durch mehr analoge Bauelemente (z.B. ein Transistor pro Pixel, mehrere AD-Wandler) => Festmusterrauschen<br />
* Dunkelsignalrauschen ist generell wesentlich temperaturabhängiger aufgrund der vielen integrierten Bauelemente<br />
* Zeilenrauschen nicht so einfach korrigierbar, da mehrere Ausgangsleitungen<br />
* da Pixel zu beliebigen Zeiten ausgelesen werden können, kann es zu Bewegungsunschärfen kommen<br />
<br />
== Multikanal (Farb-) Sensoren ==<br />
=== Was muss man bei der Realisierung von Farbaufnahmesystemen beachten ? ===<br />
* Farbe ist nur im Zusammenhang mit dem menschlichen Sehsystem definiert<br />
** Linearität zwischen Wellenlängenempfindlichkeit der Kamerasensoren und menschlichen Empfindlichkeiten gewünscht<br />
** verschiedene Farbreize können beim Menschen das gleiche Farbempfinden hervorrufen<br />
** Helligkeitsinformation wichtiger als Farbinformationen<br />
** unterschiedliche Empfindlichkeiten für unterschiedliche Wellenlängen, gleich helle blaue LED und rote LED werden nicht als gleich hell empfunden<br />
** Menschen nehmen die Farbe Grün besonders stark wahr<br />
** das alles is auch noch ortabhängig<br />
* Sensoren sind für größere Wellenlängenbereiche als das Auge empfindlich (IR, UV)<br />
* mit drei Farbkanälen können nicht alle Farben dargestellt werden, mehr Kanäle -> höhere Kosten<br />
<br />
=== Geben Sie Möglichkeiten der Aufnahme und Wiedergabe von Farbbildern an! ===<br />
Kamera:<br />
* Aufnahme mit 3 Sensoren, komplizierte und teure Objektive nötig, die das Bild positionsgenau in drei Wellenlängenbereiche (R,G,B) aufteilen<br />
* 1 Sensor, verschiedene Farbfilter, z.B. Rotieren mit Rad<br />
* 1 Sensor mit Pixeln, die empfindlich für verschiedene Wellenlängen sind (Consumer-Technik)<br />
<br />
Wiedergabe:<br />
* RGB Monitor<br />
* CMYK-Drucker<br />
* ...<br />
<br />
=== Welche Möglichkeiten zur Erfassung von Farbinformationen ergeben sich, wenn die Aufgabenstellung Verarbeitung der Farbinformation (Informationsextraktion) und nicht Wiedergabe von Farbbildern lautet. ===<br />
* (1) örtliche Informationen komplett weglassen, dh. nur Spektrum des Bildes aufnehmen<br />
** zum Beispiel um Lacke zu prüfen<br />
** Möglichkeit: mit Prisma Abbildung auf CCD-Zeile, Prisma bricht verschiedene Wellenlängen unterschiedlich stark => Spektrometer / Spektroskopie<br />
* (2) Verzicht auf komplette spektrale Auflösung, nur Teil des Spektrums erfassen (mich interessiert z.B. nur gelb) => Multikanel Vektor Bilder<br />
* Kombination aus (1) und (2), z.B. Farbkoordianten<br />
<br />
=== Erläutern Sie die Unterschiede zwischen 1- und 3-Chip-CCD-Farbkameras? ===<br />
* 3 Farbkanäle: R,G,B<br />
* 3-Chip: <br />
** drei verschiedene CCD-Sensoren mit gleicher Größe benutzen, je einer für R,G und B<br />
** Strahlteilung durch halbdurchässige Spiegel / Prismen oder Kaleidoskopoptik<br />
** Genaue Positionierung der CCDs nötig (im µm Bereich), damit örtliche Verteilung erhalten bleibt<br />
** teuer, aber beste Bilder<br />
* 1 Chip SW:<br />
** Filterrad mit versch. Filtern für verschiedene spektrale Empfindlichkeiten<br />
* 1-Chip RGB:<br />
** Gruppen von jeweils 4 Pixeln werden für verschiedene Farbkanäle genutzt: 1 Pixel R, 2 Pixel G, 1 Pixel B<br />
** Filterung mit Farbfiltern<br />
** Verlust von Auflösung<br />
** Möglichkeit der einfachen Berechnung für YCrCb Farbrum bei Interline-Matrizen: Geschicktes "Addieren" der Elektronen in den Schieberegistern, Subtrahieren mit S&H Schaltungen<br />
<br />
== Kamera ==<br />
<br />
=== Wodurch wird die reale photometrische Auflösung (Anzahl realistischer Graustufen) von CCD-Sensoren bestimmt? ===<br />
* Güte des AD-Wandlers<br />
* Dunkelsignal (zu hohes Dunkelrauschen macht hohe Auflösung des AD-Wandlers sinnlos)<br />
<br />
=== Nennen Sie Parameter, die die Abweichung vom idealen Verhalten bei CCD-Matrizen beschreiben! ===<br />
* Apertur der Pixel - nicht überall gleich empfindlich, außerdem Beeinflussung der Nachbarpixel<br />
* Dunkelsignalrauschen - Ladungsgenerierung ohne Lichteinfall<br />
* Güte des Siliziums (Dotierung, Verunreinigung) nicht überall auf dem Chip identisch => Unterschiede der Empfindlichkeit bei exakt gleichmäßiger Beleuchtung messbar, Abweichungen im bereich 1-3%<br />
<br />
=== Was versteht man unter Transferineffektivität? Wie wirkt sie sich aus? ===<br />
* Beim Schieben der Ladungen werden nicht alle Elektronen bewegt, ein kleiner Teil bleibt "hängen" <br />
** Grund: Abstoßung der Elektronen untereinander<br />
* Daher gehen Informationen über die Leuchtstärke, die auf das entsprechende Pixel wirkte, verloren oder werden fälschlicherweise auf andere Pixel abgebildet (wenn die Elektronen beim späteren Schieben nachkommen)<br />
<br />
=== Was wird mit dem Begriff Shading bei CCD-Kameras erfasst? Wie kann man die Auswirkungen korrigieren? ===<br />
* Objektiv leuchtet nicht den gesamten Bereich des Sensors gleich gut aus, vor allem am Rand<br />
* Lösung: bessere bzw. größere Objektive<br />
<br />
=== Was versteht man unter Smear bei Frame-Transfermatrizen ? Welche Möglichkeiten zur Verminderung werden eingesetzt ? ===<br />
* Ladungen von unten werden nach oben durchgereicht, sie passieren also lichtempfindliche Pixel<br />
* passieren Ladungen aus unbeleuchteten Pixeln beleuchtete Pixel, werden während der Ladungsverschiebung neue Elektronen generiert<br />
* dunkle Pixel werden daher also heller interpretiert, als sie eigentlich sind<br />
* Gesamtbild sieht dann aus wie verwischt -> smear<br />
<br />
== Beleuchtung ==<br />
<br />
=== Nennen Sie einige Anforderungen an Szenenbeleuchtung am Beispiel einer selbst gewählten Bildverarbeitungsaufgabenstellung ! ===<br />
* Angenommen ich will rote von grünen Tomaten unterscheiden, so brauch ich Auflicht, welches sowohl einen Rot, als auch einen Grünanteil beinhaltet.<br />
* Kratzer in Spiegel untersuchen mit Dunkelfeld oder Hellfeld<br />
* Länge eines Werkstückes mit Durchlicht und telezentrischem Objektiv<br />
<br />
=== Welche Rolle spielt die spektrale Verteilung der Strahlung bei der Szenenbeleuchtung für Bildverarbeitungssysteme? ===<br />
* Das Licht enthält z.B. Infrarotstrahlung, die der Mensch nicht sieht, welche aber die Kamera stark stört<br />
** beleuchtet man eine Szene, weil man etwas messen will, nimmt der Sensor auch Informationen über IR-Strahlung auf, die man garnicht sehen kann<br />
** Verfälschung der Messung.<br />
* Manche Strukturen brechen Licht wellenlängenabhägig=> gut für Spektrometer, kann aber auch stören<br />
* Interferenz wellenlängenabhägig<br />
* Lösung: Filter<br />
<br />
=== Erläutern Sie die Grundaussage des photometrischen Grundgesetzes! ===<br />
* Das photometrische Grundgesetz beschreibt den Leistungsaustausch zwischen einer leuchtenden Fläche A1 (mit der Leuchtdichte L) und einer bestrahlten Fläche A2 in Abhängigkeit ihrer Verdrehung im Raum<br />
<br />
=== Welche physikalischen Effekte werden zur Erzeugung von Licht eingesetzt ? ===<br />
Jan's Version:<br />
* Licht durch Glühemmission (z.B. Glühbirnen, Halogenlampen) -> stochastische Bewegung der Elektronen, daher Reibungsenergie mit den Atomen des Glüchdrahtes => Abgabe vieler unterschiedlicher Wellenlängen<br />
** kontinuierliches Spektrum<br />
* Licht durch Stoßionisation (z.B. in Entladungslampen) -> Elektronen stoßen Atome => heben Elektronen kurzzeitig auf höheres Energie-Niveau, beim Rückfallen werden Lichquanten freigesetzt<br />
** diskretes Spektrum<br />
* Licht am PN-Übergang ( in LEDs) -> Rekombination der Elektronen im Valenzband setzt Photonen frei<br />
** diskretes Spektrum<br />
<br />
<br />
Martin's Version:<br />
* Licht durch Glühemmission (z.B. Glühbirnen, Halogenlampen) -> Thermische Energie in den Atomen hebt Elektronen kurzzeitig auf höheres Energie-Niveau und beim Rückfallen werden Lichquanten freigesetzt<br />
** kontinuierliches Spektrum<br />
* Licht durch Stoßionisation (z.B. in Entladungslampen) -> Rekombination der Ionen mit den Elektronen setzen Photonen frei<br />
** diskretes Spektrum<br />
* Licht am PN-Übergang ( in LEDs) -> Rekombination der Elektronen im Valenzband setzt Photonen frei<br />
** diskretes Spektrum<br />
<br />
<br />
=== Nennen Sie einige Lampentypen und erläutern Sie die Prinzipien der Lichterzeugung ? ===<br />
* Wärmestrahlung: Material erwärmen, bis es Strahlung im Wellenlängenbereich von Licht abstrahlt, z.B. Elektronen durch Wolframdraht drängeln<br />
** kontinuierliches Spektrum mit hohem Infrarotanteil<br />
* Entladungslampen: Ionisierung von Gasen durch Spannungen, Freisetzung von Photonen.<br />
** diskretes Spektrum, kontinuierlich nur mit Beschichtungen (Anregung von Leuchtstoffen)<br />
* Halbleiter: Rekombination am PN-Übergang, damit wieder die Energieniveaugeschichte<br />
** diskretes Spektrum, kontinuierlich nur mit Beschichtungen (Anregung von Leuchtstoffen)<br />
<br />
=== Nennen Sie Eigenschaften unterschiedlicher Lampentypen ! ===<br />
Glühbirnen:<br />
* Vorteil:<br />
** billig<br />
** breites Spektrum<br />
** einfache Beschaltung<br />
** in jeder Größe herstellbar<br />
* Nachteil<br />
** recht kurze Lebensdauer<br />
** hohe Lichtineffizienz (Dunkelleuchter)<br />
** Spektrum ist temperaturabhängig<br />
** Verdunkeln mit der Zeit, da Wolfram sich am Glas absetzt<br />
* Verbesserung: <br />
** Halogenleuchten - Halogen bindet Wolfram, dadurch werden die Glaswände nicht dunkler. Gleichzeitig bildet sich um den glühenden Wolframdraht eine Wolke, die weiteren Abtrag verhindert (irgendwie :-/ )<br />
** Beschichtung des Glases, was das Austreten der Infrarotstrahlung mindert und somit zu einer Erhitzung des Wendels beiträgt. (Spart Energie)<br />
<br />
<br />
Entladungslampen<br />
* Vorteil<br />
** Teilweise hohe Leuchtstärke (XEON-Licht), vor allem bei Hochdrucklampen<br />
** "Dünnes" Spektrum (kann auch von Vorteil sein, z.B. wenn andere Farben stören würden)<br />
* Nachteil<br />
** Eigentlich nur kleines, diskretes, meist nicht sichtbares Spektrum (Lösung durch Fluriszierende Beschichtung)<br />
** Benötigt etwas komplexere Beschaltung (Elektromagnetische Vorschaltegeräte EVG)<br />
** Nichtlineare Kennlinie<br />
** Nicht beliebig klein baubar, da Elektroden relativ groß sind<br />
** Hochdrucklampen müssen erst "hochfahren" und sind explosionsgefährdet<br />
<br />
<br />
Leuchtdioden<br />
* Vorteil<br />
** Klein und in vielen Farben herstellbar<br />
** Vergleichsweise hohe Lebensdauer <br />
** Geringer Verbrauch bei hoher Leistung<br />
* Nachteil<br />
** Dimmen durch PWM<br />
** Temperaturabhängiges Licht (in Intensität und Wellenlänge)<br />
** recht schmales Spektrum -> Weißes Licht durch RGB-Kombination oder Blaue LED mit Phosphorschicht<br />
** Lassen mit der Zeit an Leuchtkraft nach<br />
** Großteil der Photonen dringen nicht nach außen, weil sie IM PN-Übergang entstehen<br />
=== Was versteht man unter dem Flimmerfaktor von Lampen? Welche Rolle spielt er für CCD-Bildaufnahmesysteme (Zeilen, Matrizen)? ===<br />
* Lampen werden mit Wechselstrom oder gepulster Gleichspannung betrieben, geben daher nicht kontinuierlich die gleiche Strahlung ab sondern mit bestimmter Frequenz -> Flimmern<br />
* CCD: so kurze Integrationszeiten, dass dieses Flimmern die Bildaufnahme beeinflusst<br />
* Abtastung immer zum gleichen Zeitpunkt: kein Problem<br />
* Abtastung zu verschiedenen Zeitpunkten: Bei einem Bild Lampe hell, beim anderen Lampe gerade dunkel: Müst<br />
<br />
=== Wie kann man eine näherungsweise gleichmäßige Ausleuchtung einer ebenen Fläche erreichen? ===<br />
* Durch Punktleuchten mit einem Höhen/Abstands-Verhältnis von 0,82<br />
* Durch Ringleuchten mit einem Höhen/Durchmesser-Verhältnis von (unwichtig)<br />
<br />
== Optische Abbildung ==<br />
<br />
=== Wie wirken sich Modulationstransferfunktion, Verzeichnung, Randabfall von Objektiven auf die resultierenden Eigenschaften eines Bildaufnahmekanals aus! ===<br />
<br />
=== Nennen Sie Anforderungen aus der Bildverarbeitung, die Einfluss auf die Auswahl von Objektiven haben! ===<br />
* Abstand es Objektes zum Sensor => Brennweite<br />
* Größe des Objektes, Größe des Sensors => Abbildungsmaßsstab, Brennweite<br />
* Art der Messaufgabe (hyperzentrisches, endozentrisches oder telezentrisches Objektiv)<br />
<br />
=== Was versteht man unter telezentrischem Strahlengang? Welche Vorteile bringt er? Wie ist er erreichbar? ===<br />
* Öffnungsblende im Brennpunkt der Bildseite -> lässt nur Brennpunktstrahlen durch, die auf Objektseite Parallelstrahlen sind<br />
* keine Verzeichnung des Objektes, unabhängig vom Abstand des Objektes zur Linse -> ideal zur Längenmessung<br />
<br />
=== Erläutern Sie das Phänomen des Randabfalls der durch ein Objektiv abgebildeten Strahldichten! ===<br />
* Am Besten malt man eine Skizze des Optischen Systems. Auf der man sieht dann, dass die Hauptstrahlen alle durch den Linsenmittelpunkt müssen. Dann geht man davon aus, dass die größte Lichtaussendung eines Objektes genau entlang dieses Hauptstrahls am Größten ist. Wenn man jetzt die Objekthöhe besonders hoch wählt, dann sieht man, dass dessen Hauptstrahl in der Bildebene immer weiter von der optischen Achse wegwandert (also nach Unten). Ab einem bestimmten Winkel wird dann der Hauptstrahl nichtmehr auf die Sensorfläche treffen weil er in der Bildebene darunter liegt. Dann wird auch nicht mehr das gesamte Licht auf den Sensor treffen. Ergo: Je steiler der Winkel, desto dunkler werden die lichtpunkte des Objektes auf dem Sensor, was man dann Randabfall nennt.<br />
<br />
=== Für welche Abbildungsverhältnisse sind Fotoobjektive prädestiniert? Welche Probleme sind beim Einsatz für die digitale Bildverarbeitung zu beachten? ===<br />
<br />
== Bildverarbeitungssysteme ==<br />
<br />
=== Warum steht bei Bildverarbeitungssystemen die Forderung nach einem eigenständigen Bilddatenbus? ===<br />
* große Datenmengen, meist streng strukturiert<br />
* hohe Echtzeitanforderungen, daher hohe Übertragungsrate gewünscht, bestenfalls isochron<br />
* Möglichkeit der parallelen Verarbeitung<br />
* ein Datum idR klein, 8 Bit zB<br />
<br />
=== Welche Forderungen sind an analoge Bilddatenkanäle (on-chip-Verstärker, ..., Vorverstärker für ADU) zu stellen? ===<br />
* geringe Temperaturabhängigkeiten<br />
* gutes Rauschverhalten<br />
* hoher Anspruch an Linearität<br />
<br />
=== Was versteht man unter Auflösung und was unter Genauigkeit eines ADU? ===<br />
Auflösung:<br />
* ja wie viel Bit die Möhre halt hat ;)<br />
Genauigkeit:<br />
* Güte der Diskretisierung des Wertebereichs<br />
* SNR<br />
<br />
=== Welche Forderungen sind an Bilddatenausgabegeräte (Visualisierung über Monitor) zu stellen? Ordnen Sie dabei Unterschiede zwischen interaktiver und automatischer Bildverarbeitung ein! ===<br />
Martin's Theorie:<br />
* Bei automatisierungsteschnischen Prozessen reicht es, wenn ich dem Bediener ein aufbereites, meinetwegen tausendmal gefiltertes Bild darstelle um dem "Experten" eventuell zu erklären, weshalb mein System diese Klassifikation getroffen hat. <br />
* Bei einer interaktiven Bildverarbeitung muss also der Bediener entscheiden, wie der nächste Schritt zu erfolgen hat. Daher brauch ich ein hochaufgelöstes Bild, was auch etliche Sekunden angezeigt werden muss.<br />
<br />
=== Welche Architekturmerkmale von µ-Prozessoren sind für die Bilddatenverarbeitung von größerem Interesse? ===<br />
* viele Register, Cache<br />
* Vektor-Rechenwerke, zB SSE, MMX<br />
* viele Datenwege (Speichercontroller aufm Die, HT-Link usw)<br />
* hohe Flexibilität bezüglich Zusatzhardware (HW für PCI, RAM erweitern usw.)<br />
* breite Verfügbarkeit, Preis (Massenproduktion)<br />
<br />
=== Wodurch sind moderne Bus-Systeme der µ-Rechentechnik gekennzeichnet? Welche Parameter sind für die Bildverarbeitung besonders interessant? ===<br />
* hoher Datendurchsatz, geringe Zugriffszeiten, Parallelität (Pipelining, SMT)<br />
* mehrere Busse parallel, zB bei Speicher: Zugriff auf Speicher (Daten reinfüttern) lähmt CPU nicht<br />
* hohe Datenmengen durch Bilder erzeugt => müssen transportiert werden<br />
<br />
=== Welche Eigenschaften zeichnen µ-Controller gegenüber µ-Prozessoren aus? ===<br />
µ-Prozessoren:<br />
* ursprünglich für Steuerungsaufgaben entwickelt, daraus entwickelten sich Heimrechner<br />
* daher große Vielfalt an Software und Hardware, auch ausgereift durch viele Beta-Tester<br />
* einfache Mensch-Maschine-Kommunikation<br />
* viele Zusatzbauelemente benötigt (Board, gRaka, taktgeber)<br />
* sehr begrenzte Echtzeitfähigkeiten von Soft- und Hardware<br />
* kurze Lebensdauer / Verfügbarkeit der Bauteile<br />
* Standard-PCs nicht für Industrie-Einsatz geeignet, Industrie PCs laut, teuer, stromhungrig<br />
=> Geeignet für Systeme mit hohem Anteil an Mensch-Maschine-Kommunikation<br />
<br />
µ-Controller:<br />
* kleinere Systeme, wichtigste Bauteile auf dem Chip integriert<br />
* Spezialhardware für bestimmte Aufgaben (µC: Steuerung, DSPs: MAC-Befehler) => speziell auf das Problem angepasste HW verfügbar<br />
* costum design möglich<br />
* Echtzeitanforderungen realisierbar<br />
* Parallelität <br />
=> Geeignet für autonome Systeme<br />
<br />
=== Welche Voraussetzungen an die Aufgabenstellungen müssen erfüllt sein, um sie auf parallelen Strukturen abarbeiten zu können? Nennen Sie Beispiel aus der Bildverarbeitung! ===<br />
* Algorithmen müssen sich parallelisieren lassen, rein sequentielle Abläufe nicht geeignet<br />
SIMD: Parallelität der Daten, Daten lassen sich aufteilen<br />
* Filterstrukturen<br />
* Nachbarschaftssuche <br />
* Bild in mehrere Teile unterteilen und einzeln berechnen <br />
* Ganze Arbeitsabläufe parallelisieren (zB Fehlstücke vom Band schmeißen, System1 untersucht gerade Fehlstücke, System2 ungerade)<br />
MISD: <br />
* Pipelining, dh einen Algorithmus nicht von einem Chip verarbeiten lassen sondern von mehreren Chips<br />
* Einzelne Chips sind Koniferen auf ihrem Gebiet und können die speziellen Aufgabe daher mit Gravur lösen<br />
* Kommunikationsoverhead <br />
MIMD:<br />
* verschiedene Aufgaben mit verschiedenen Daten parallel ausführen<br />
<br />
=== Was sind parallel arbeitende Rechnersysteme? Welche Strukturen sind für Aufgaben der Bildverarbeitung denkbar? ===<br />
* Parallel arbeitende Rechensysteme sind Rechner, die mehrere Berechnugnsschritte zur gleichen Zeit erledigen können<br />
* Bildverarbeitung: hohe Datenmengen und/oder hohe Echtzeitanforderung, dadurch können schon einfachste Probleme komplex werden<br />
* daher kiwi-Prinzip: kill it with iron, solange Hardware reinschmeißen, bis es funktioniert ;)<br />
* dh: Aufgaben aufteilen auf verschiedene Rechensysteme<br />
<br />
=== Nennen Sie einige vom von-Neumann-Prinzip abweichende Rechnerarchitekturen und erläutern Sie diese Strukturen! ===<br />
* Harvard: getrennte Speicher für Daten und Programme, zB bei Cache in x86 CPUs<br />
* Filtersturkturen: Multiplizierer an jeder Datenleitung zum beaufschlagen mit Konstanten, dahinter Addierer für alle Datenleitungen -> hochparallel<br />
<br />
=== Zeigen Sie einige Möglichkeiten der Verlagerung von Algorithmen der Bildverarbeitung in Hardware! ===<br />
* bevorzeugt für Algorithmen, die identisch für das ganze Bild sind<br />
* Punktoperationen (zB Grauwerte verändern) => Look Up Tables (einfach und schnell)<br />
* Einfache Filter können in Hardware gemacht werden, Miltiplikation von Konstanten udn Aufaddierung <br />
* nichlineare Filer in fester Nachbarschaft: Sortieren, Neuordnung etc<br />
* Neuronale Netze mit einfachen Neurocomputern<br />
<br />
=== Welche Möglichkeiten bieten Look-up-table, um Aufgaben der digitalen Bildverarbeitung in Hardware zu lösen? ===<br />
* Hardware ist nur ein schneller Speicher, der eine einfache funktionale Abbildung realisiert<br />
* x ist Eingang, f(x) ist Ausgang<br />
* Koeffizienten bzw. Funktionswerte sollten sich verändern lassen (programmierbare rEgister)<br />
<br />
=== Skizzieren Sie eine Struktur, die es gestattet, Grauwerthistogramme on-line zu erzeugen! ===<br />
* Speicher bauen, dessen Adress-Eingang der Grauwert des Pixels ist<br />
* Ausgang des Speichers inkrementiert den Eingang<br />
* ergibt n Zähler, die über Adresse angesprochen werden, Adresse ist der Grauwert <br />
<br />
=== Skizzieren Sie eine Struktur. die es gestattet, ausgehend von einem seriellen digitalen Bilddatenfluß, die Umgebung eines Bildpunktes parallel zur Verfügung zu stellen? ===<br />
* Sender sendet seriellen Datenstrom und Empfänger soll den in parallelen strom zerlegen<br />
* Sortierung des Bildes nach Zeilen => für jede Zeile steht am Empfänger ein Register zur Verfügung<br />
* Sender und Empfänger müssen beide wissen, wie viele Pixel/Zeile es gibt und wie viel Zeilen, so sind keine Trennzeichen erforderlich<br />
* Empfänger kann seriellen Eingangsdatenstrom nach einer Zeile kappen und für eine neue Zeile einen neuen Ausgangsdatenstrom erzeugen, Zwischenspeicher in rEgistern<br />
<br />
=== Wie könnte die Struktur einer Hardwarebaugruppe aussehen, die es gestattet, Faltungsoperationen on-line durchzuführen? ===<br />
* zuerst mal heißt das on-the-fly ;)<br />
* Filterstruktur: sum(a*x)<br />
* Pixel trödeln parallel ein => n Datenleitungen für n Pixel<br />
* jedes Pixel mit Konstante aus Register multiplizieren => pro Datenleitung ein Konstantenregister<br />
* Am Ende ein großer Adder, der alle Werte addiert<br />
<br />
=== Klassifizieren Sie Bildverarbeitungssysteme nach Aufgabenstellung und daraus resultierender einzusetzender Rechentechnik! ===<br />
* PC, Industrie-PC für Anwendungen mit Mensch-Maschine Kommunikation<br />
* µC, DSP für standalone Systeme<br />
<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Grundlagen_der_Farbbildverarbeitung&diff=7002Grundlagen der Farbbildverarbeitung2009-03-17T13:50:22Z<p>DarkGhost: /* Segmentierung (Seg 1 - 8) */</p>
<hr />
<div>Link zum [http://www.zbs-ilmenau.de/intern/vip-toolkit/index.php Vip toolkit]<br />
= Einführung (GF_a 8 - 47) =<br />
<br />
== Geschichtliches zur Farbe ==<br />
<br />
=== Newton ===<br />
<br />
* 1672: New Theory about Light and Colours<br />
** Sonnenlicht = Mischung einzelner Farben<br />
** Spektralfarben sind objektive Eigenschaft des Lichtes<br />
<br />
[...]<br />
<br />
=== Goethe ===<br />
<br />
[...]<br />
<br />
== Begriff der Farbe ==<br />
<br />
* '''Farbe im engeren Sinn, stellt eine spezielle menschliche Sinneswahrnehmung dar'''<br />
* <math>\Phi_i = \int_{\Delta \lambda_i} \varphi_{\lambda} (\lambda) d \lambda</math><br />
* Leistungsdichte <math>\phi (\lambda)</math> stellt dagegen den Farbreiz dar, der die Farbempfindung hervorruft<br />
* Vektoren <math>\underline \Phi</math> sind je nach Dimension mehr oder minder genaue Approximationen des Farbreizes<br />
<br />
* Orientierung am menschlichen visuellen System und die Betrachtung psychologischer und physiologischer Grundlagen sind von Interesse:<br />
** zur richtigen Bewertung der Schwierigkeiten und Herausforderungen bei der Schaffung technischer Lösungen<br />
** zur Anpassung technischer Lösungen der Bildwiedergabe an das visuelle System<br />
** zur Nutzung optimaler Naturprinzipien für technische Lösungen<br />
** weil technische Systeme im allgemeinen auf dem inneren Modell des Menschen von der Welt beruhen und dieses Modell in hohem Maße durch den visuellen Kanal des Menschen beeinflusst ist<br />
** weil optoelektronische Sensoren, Bildverarbeitung und Bildanalyse wichtige Schnittstellen zwischen Mensch und Maschine darstellen<br />
**weil viele Objekteigenschaften durch visuelle Eindrücke beschrieben werden<br />
<br />
* menschliches Auge kann ca. 100 Graustufen / ca. 300 000 Farben unterscheiden<br />
<br />
* Drei grundsätzliche Anwendungen von Farbinformation:<br />
** Pseudokolorierung<br />
** Falschfarbendarstellung<br />
** Echtfarbdarstellung (True Color) <math>\rarr</math> hier Schwerpunkt<br />
<br />
== Farbtäuschung ==<br />
<br />
* Zuordnung zwischen Physik und Wahrnehmung nur eindeutig wenn bunte Dinge isoliert betrachtet werden<br />
* Werden bunte Objekte in bunte Umgebungen eingebettet/bewegt, dann können abweichende Farbwahrnehmungen auftreten, so genannte Farbtäuschungen<br />
* es existieren unterschiedliche Arten solcher Täuschungen:<br />
** ''Farbinduktion oder simultaner Farbkontrast'' (Farbe wird durch ihre Umgebung modifiziert)<br />
** ''Farbkonflikt'' (es konkurrieren verschiedene Sehinformationen miteinander)<br />
** ''Subjektive Farben'' (es werden bunte Farbtöne wahrgenommen, die nicht vorliegen)<br />
<br />
'''Simultaner Farbkontrast:'''<br />
* erstmals 1839 beschrieben<br />
* wo der Effekt entsteht (Auge, Cortex) ist unklar<br />
<br />
'''Farbinduktion:'''<br />
* bei kleinteiligen, sich wiederholenden Strukturen erfolgt Angleichung<br />
* kann zur Rauschunterdrückung oder zur Unterdrückung von Feintexturen zugunsten der Erkennung größerer Objekte wichtig sein<br />
<br />
'''Farbkonflikt:'''<br />
* Formen und Strukturen konkurrieren mit Farben ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf White'sche Illusion])<br />
<br />
'''Subjektive Farben:'''<br />
* durch Bewegung ist es möglich Farben zu erzeugen die ursprünglich nicht vorhanden waren ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf Drehwurm in Farbe])<br />
<br />
== Farbwahrnehmung beim Menschen ==<br />
<br />
[...]<br />
<br />
=== Rezeptive Wahrnehmung ===<br />
* 1807 stellte Young die Hypothese auf das Farbsehen auf drei Arten von Sinneszellen beruht (rout,grün,blau)<br />
* erst 1964 konnten dies bewiesen werden, durch die Messung der Absorptionsspektren<br />
*[[Datei:Pdt-kurven.svg]]<br />
<br />
=== Postrezeptive Wahrnehmung ===<br />
* Mit dem 3 Farbenmodell konnten einige psychologische Erscheinungen nicht erklärt werden<br />
** Es werden 4 Farben als besonderst "rein" empfunden (Rto, Geln,Grün, Blau)<br />
** Unbunte Farben werden werden als das fehlen von Farben wahrgenommen<br />
** Schwarz schein gleichberechtigt zu Weiß<br />
** keine wahrgenommene Farbe erscheint zugleich rötlich und grün<br />
* das führte zur Gegenfarbentheorie die anfangs nur Psychologisch begründet war 1958 aber physiologisch Nachgewiesen werden konnte<br />
** Rot - Grün<br />
** Gelb - Blau<br />
** Schwarz - Weiß<br />
* → CIELab-Farbraum<br />
<br />
=== Kortikale Kodierung ===<br />
* Weder die 3 Farbentheorie noch die Gegenfarbentheorie beschreiben die bewusste Wahrnehmung des Menschen<br />
* Deshalb erweitertes Modell<br />
** Farbton / Buntton beschreibt die als besonderst rein empfundenen Spektralfarben<br />
** Sättigung beschreibt wie stark eine Farbe verblasst ist<br />
** Helligkeit beschreibt, wie hell oder dunkel eine Farbe ist<br />
* Wo/Wie genau die neuronale Verarbeitung erfolgt, ist noch nicht sicher belegt<br />
<br />
== Die Ordnung in der Welt der Farben ==<br />
* Newton kannte die Wellenlänge noch nicht → er ordnete die Farben nach dem Regenbogen<br />
* Goethe verwendete das Gegenfarbenmodell<br />
* Munsell schlug 1905 ein Farbordnungssystem vor bei dem alle Abstände zwischen den Farben Empfindungsmäßig gleich sind<br />
** führt zu einem geometrisch nicht regelmäßigen Körper<br />
<br />
== Das Modell der Farbe ==<br />
* '''Definition'''<br />
** Farbe ist diejenige Gesichtsempfindung eines dem Auge strukturlos erscheinenden Teils eines Gesichtsfeldes durch die sich diser Teil bei einäugiger Betrachtung mit unbewegtem Auge von einem gleichzeitig gesehenen ebenfalls strukturlos angrenzendem Bezirk allein unterscheidet (unbunte Farben: Schwarz, Weiß und Graustufen, bunte Farben: Helligkeit; Buntheit setzt sich aus Buntton und Farbsättigung zusammen)<br />
** Farbe ist durch Helligkeit, Buntton, Sättigung eindeutig bestimmt → 3D Modell<br />
*** drei linear unabhängige Größen<br />
*** Additive Mischung zur Reproduktion von Farbe (aus Rot, Grün, Blau)<br />
*** drei linearunabhängige Größen spannen immer einen Raum auf → Rot,Grün und Blau werden die Achsen dieses Raumes<br />
<br />
=== Farbvalenz ===<br />
* Mit unserem Modell läßt sich jede Farbe als linearkombination unserer drei Basisvektoren aufschreiben<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
** <math> \vec F</math> ... Farbvalenz<br />
** <math> \vec r, \vec g, \vec b </math> ... die drei Basisvektoren die den Raum aufspannen (Rot, Grün und Blau)<br />
** <math> R,G,B, |\vec F| </math> ... die Farbwerte<br />
** <math> \vec r \cdot R, \vec g \cdot G, \vec b \cdot B </math> ... die drei Primärvalenzen<br />
* Ermittelt werden die Farbwerte mit Hilfe der Vergleichsmethode<br />
** Eine Person vergleicht ein Target mit einer Farbe die aus den drei Primärvalenzen gemischt wird<br />
** wenn die Empfindung der beiden Farben gleich ist, dann notieren wir die Werte<br />
* Innere Farbmischung<br />
** das Target wird mit weißen Licht beleuchtet und wir drehen nur an dem Farbmischgerät<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
* Äußere Farbmischung<br />
** Wir beleuchten das Target mit farbigen Lichte<br />
**<math> \vec F+ B \cdot \vec b = R \cdot \vec r + G \cdot \vec g \rightarrow \vec F = R \cdot \vec r + G \cdot \vec g - B \cdot \vec b</math><br />
<br />
=== Farbreizmetrik ===<br />
* Die Farbreizfunktion <math> \varphi_\lambda</math> beschreibt die spektrale Zusammensetzung der Farbempfindungen<br />
*# Selbstleuchtende Objekte<br />
*#* <math> S_\lambda (\lambda)</math> beschreibt die spektrale Verteilung der Quelle<br />
*#* Wahrnehmung: <math> \varphi_\lambda = S_\lambda</math><br />
*# Auflicht Vorlagen<br />
*#* <math>\beta_\lambda(\lambda)</math> beschreibt den spektralen Remisionsgrad der Vorlage<br />
*#* Wahrnehmung: Licht reflektiert von der Vorlage <math> \varphi_\lambda = S_\lambda \cdot \beta_\lambda</math><br />
*# Durchlichtvorlagen<br />
*#* <math>\tau_\lambda(\lambda)</math> spektraler Transmissionsgrad der Vorlage<br />
*#* Wahrnehmung von Licht welches die Vorlage durchdrungen hat <math>\varphi_\lambda= S_\lambda \cdot \tau_\lambda</math><br />
* Damit haben folgende Faktoren Auswirkung auf die Wahrgenommene Farbe<br />
*# Die Beleuchtung des Objektes (Spektrale Zusammensetzung des Lichtes der Lampe)<br />
*# Das Remmisionsverhalten der beleuchteten Oberfläche<br />
*# Die wellenlängenabhängige Empfindlichkeit der drei Zapfen des Auges<br />
* Es besteht die Möglichkeit die pdt Kurven direkt zur Beschreibung des Farbempfindens zu nutzen<br />
* Die Farbwerte könnte man dann wie folgt ermitteln: <math> \left(\begin{matrix}P\\D\\T\end{matrix}\right)=k\int_{380\mathit{nm}}^{780\mathit{nm}}\varphi (\lambda )\cdot \left(\begin{matrix}p(\lambda )\\d(\lambda )\\t(\lambda )\end{matrix}\right)d\lambda </math><br />
* Für die technische Darstellung von Farbe werden allerdings R,G,B werte benötigt<br />
* Die dafür notwendigen Spektralwertkurven können mit Hilfe der Vergleichsmethode ermittelt werden<br />
* Man erhält damit folgende Kurven<br />
[[Datei:SpektralwertfunktionenRGB.jpg]]<br />
* Mit der gleichen Formel wie bei der pdt Kurve lassen sich nun die R,G,B Werte rechnerisch ermitteln<br />
<br />
== Farbanalyse, Zusammenhang mit der Farbwidergabe ==<br />
* Das Kammera - Monitor System soll die Farbe exakt wiedergeben<br />
* Der Monitor verwendet EBU Phosphore für die Farbdarstellung<br />
** haben selbst Spektralwert kurven => keine Monochromatischen Lichter mehr<br />
* Die notwendigen spektralwertkurven die die Kamera realisieren muss um die Bilder auf dem Monitor exakt darzustellen lassen sich mit Hilfe der pdt Kurven herleiten (Über forderung der Gleicheit der Farben)<br />
* Sie besitzen stark negative Anteile => Auch die Filter der Kamera müssten negative Transsmissionsgrade besitzen<br />
** technisch ist das nicht möglich<br />
* es bleibt also nur die Möglichkeit die notwendigen Parameter zur Ansteuerung des Monitors aus positive one-peak Kurven zu berechnen<br />
<br />
== Subtraktive Farbmischung ==<br />
* Die Subtraktive Farbmischung lässt sich auf die Multiplikation der Transmissionsgrade zurückführen (ein Filter lässt 50% rotes licht durch, wenn man zwei dieser Filter hintereinander legt, dann geht nur noch 25% rotes Licht durch die Anordnung (0.5*0.5 = 0.25) )<br />
* wenn <math> \tau_0 </math> die Transmission eines Filters für die normierte Dicke 1 und die normiert Dichte 1 ist dann kann man<br />
** mit dem Lambertschen Absorbtionsgesetzt die Absortption von dickern/düneren Material berechnen <br> <math> \tau = [ \tau_0]^w </math><br />
*** w ... Dicke des Materials im Verhältnis zum norm Material<br />
** mit dem Beerschen Gesetz die Transmission von Meterial mit anderer Dichte berechnen <br><math> \tau = [ \tau_0]^c </math><br />
*** c... Das Verhältnis der neuen zur alten Dichte<br />
** kann man auch kombinieren zu (Lambert-Beersches Gesetz)<br />
** <math> \tau = [ \tau_0]^{c \cdot w} </math><br />
* Da sich die Transmission Multiplikativ zusammensetzt wird auch gerne mit dem logarithmus der Transmission gerechnet (optische Dichte)<br />
**<math> D = - lg \tau = lg \frac{1}{\tau}</math><br />
** Damit vereinfacht sich das Lambert-Beersche gesetz zu: <math> D = c \cdot w \cdot D_0</math><br />
* selbstverständlich sind die Transmission <math>\tau</math> und die optische Dichte D von der Wellenlänge abhänig ... zur Übersichtlichkeit wurde das in den Formeln nur weggelassen<br />
* Bei einem Papierbild kommt zu dem Filter noch die Reflexion an der Farboberfläche und an der Papieroberfläche<br />
** Beachte das Licht was an der erste Schicht wegreflektiert wird kann icht tiefer eindringen. Nur noch <math> (1-\beta)*S </math> dringt an Licht durch den ersten Filter!<br />
*** <math> \beta </math> ... Remmisionsgrad der ersten Farbe<br />
*** <math> S </math> ... Spektrale Verteilung der Lichtquelle<br />
<br />
= Farbmetrische Schnittstellen - Farbräume (GF a 49 - 55) =<br />
<br />
<pre><br />
Unterschiedliche bildgebende Systeme<br />
z.B. Farbkameras<br />
Farbscanner<br />
Spezialkameras<br />
</pre><br />
'''Widerspruch''' <math>\updownarrow</math> Farbmetrische Schnittstelle<br />
<pre><br />
Unterschiedliche Bildwiedergabesysteme<br />
"True-Color-Darstellung"<br />
- unterschiedliche Monitore, Beamer, Drucker etc.<br />
</pre><br />
<br />
== Leuchtdichte (Luminanz) ==<br />
<br />
* Luminanz Y ist die Strahlungsleistung, bewertet mit der spektralen Empfindlichkeitsfunktion des Auges für das Hellempfinden<br />
* Y ist Leistungsproportional, wenn Lichtzusammensetzung (Leistungsdichte <math>\Theta (\lambda))</math> konstant bleibt<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* Leuchtdichte berechnet sich nach dem ''Abneyschen Gesetz'':<br />
: <math> Y = L = k \cdot \underline L^T \cdot \underline F </math><br />
:* <math>\underline L^T - </math> Leuchtdichtebeiwert: gibt an wie groß der Beitrag jedes Farbwertes der Farbvalenz zum Helleindruck ist, abhängig vom gewählten Farbwiedergabesystem<br />
* Leuchtdichte L <math>\ne</math> Intensität I<br />
: <math> I = \frac 1 3 (R+G+B)</math><br />
<br />
* die perzeptuelle Antwort unseres Auges auf die Leuchtdichte wird Helligkeit (Lightness) genannt<br />
: <math><br />
L^{\star} = \begin{cases}<br />
116 \cdot \sqrt [3] {\frac Y {Y_n}} -16, & \text{wenn } \frac Y {Y_n} > 0{,}008856\\<br />
903{,}3 \cdot {\frac Y {Y_n}}, & \text{wenn } \frac Y {Y_n} \le 0{,}008856<br />
\end{cases}<br />
</math><br />
<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: Eine Quelle die nur 18% der Luminanz einer Referenz hat, erscheint uns immer noch halb so hell wie die Referenz </span><br />
<br />
== Gammakorrektur und Luma ==<br />
* '''Gammakorrektur:'''<br />
** Aufgrund der Ansteuerung von CRT Monitoren und der verwendeten Phosphore ergibt sich ungefähr eine quadratische Abhängigkeit der Luminanz vom Videosignal<br />
** Die Luminaz der drein einzelnen Farbkanäle muss den gleichen Verlauf aufweisen. Sie dürfen sich nur in ihren Maximalwerten unterscheiden!<br />
*** Sonst ist es nicht möglich die Helligkeit zu ändern und dabei die Farbe konstant zu halten<br />
** Die Gammakorrektur sorgt dafür das die Farbwiedergabe auf dem Monitor linear verläuft und nicht quadratisch<br />
*** Notwendig damit wir die gleich Wahrnehmung erzielen können als währe das Kamera-Monitor System nicht vorhanden<br />
<br />
*'''Luma:'''<br />
** Luma ist die gewichtete Summe der drei Gammakorregierten Farbwerte R',G',B'<br />
** Damit ist Luma nicht gleich Luminanz<br />
<br />
*'''Brightness'''<br />
** Brightness ist ein Begriff der beschreibt wie stark eine Fläche Licht emmitiert oder sie hell sie erscheint<br />
** Besitzt kein festes Maß und wird daher sehr frei verwendet -> HSL<br />
<br />
== Farbsysteme, Farbräume, reduzierte Farbräume ==<br />
* Die Intensität einer Farbe ist <math> I = \frac{R + G +B}{3} </math><br />
* Wählt man die Intensität konstant mit <math>I=\frac{1}{3}</math> so ergibt sich eine Ebene die den RGB-Farb Würfel Diagonal schneidet und durch die R,G,B Eckpunkte geht<br />
* Jede Farbkoordinate kann auf diese Ebene projeziert werden -> Ermöglicht die Nutzung dieser Ebene als einfache Farbtafel<br />
** Diese Ebene kann dann noch auf die 0RG- Fläche des RGB Würfels projeziert werden ohne das die Ordnung der Farben gestört werden würde -> Der Farbton einer Farbe lässt sich allein durch r und g beschreiben<br />
* in die rg-Ebene können nun alle in RGB - darstellbaren Farben und alles existierenden Farben eingetragen werden<br />
** Danach erkennt man das sich technisch mit dem RGB-System nur ein kleiner Teil der exisiterenden Farben realisieren lässt<br />
<br />
= Das Normvalenz- oder XYZ-System (GF a 76 - 86) =<br />
* Alle Farbwerte sollen durch positive Farbwerte darstellbar sein<br />
** Für Farbmessung von Interesse<br />
** Das XYZ- Dreieck muss den spektralen Kurvenzug voll umschließen<br />
* Eine weitere Forderung ist das die Leuchtdichte als unabhängige Komponete auftreten soll<br />
* Die Fläche des Dreiecks soll so klein wie möglich sein<br />
* Die dadurch berechnbaren Normalvalenzen sind physikalisch nicht erzeugbar -> Die Spektralwertkurven für das System müssen berechnet werden<br />
** Die Berechneten Spektralwertkurven sind stets nichtnegativ -> immer positive Transmissionsgrade und Sensorempfindlichkeiten<br />
[[Bild:NORMXYZ1.JPG]]<br />
* Mit dem XYZ-System kann man nun Farbdreiecke vergleichen und Bewerten<br />
** Abstände, Fehler und Systemeigenschaften sollten aber in einem empfindungsmäßig gleichabständigen Farbraum bewertet werden (u'v'w' und CIELab)<br />
* '''Optimalfarbkörper'''<br />
** Beschreibt die Grenze aller darstellbaren Körperfarben<br />
** Zur Erstellung schneidet man rechteckförmige Stückchen aus dem Spektrum von Idealweißem Licht aus<br />
<br />
== Das UVW-System ==<br />
* Informationsgehalt der Farbe für den Menschen hängt davon ab welche Farbunterschiede er wahrnehmen kann<br />
* Vor allem ist das interessant wenn Bildverarbeitungsprobleme auf der menschlichen Wahrnehmung formuliert sind<br />
* xy-Farbtafel hat starke Unterschiede zwischen örtlichen Abstenden und empfindungsmäßigen Abständen -> ungeeignet<br />
* erste Lösung<br />
** lineare Transformation<br />
** W' -> Helligkeit<br />
** U' -> Rot-Grün Bundheit<br />
** V' -> Gelb-Blau Bundheit<br />
** Ergebnis<br />
*** Wesentlich besseres Darstellung der Empfindung (Faktor 10 gegenüber dem XYZ-System)<br />
* verbesserte Lösung<br />
** verwenden einer nicht linearen Abbildung (Auge wird mit berücksichtigt)<br />
<br />
== L*a*b* oder CIELAB-Raum ==<br />
* Gegenfarbmodell<br />
* empfindungsmäßig gleichabständiger Raum<br />
* Grundsätzlich zur Angabe von Farbabweichungen verwendet<br />
** Geeignet zur Bewertung von Druckern, Monitoren und Abweichungen von Nachfärbungen<br />
* als Farbdifferenzmaß wird der euklidische Abstand benutzt (<1 nicht mehr Wahrnehmbar)<br />
<br />
== L*u*v* oder CIELUV ==<br />
* für additive Mischung vorgesehen<br />
* wie der CIELAB- Raum ein empfindungsmäßiger gleichabständiger Raum<br />
<br />
== YCbCr - Crominanzwertsystem ==<br />
* Entwickelt damit Farbfernsehen und S/W-Fernsehen Parallel betrieben werden konnten<br />
* Crominanzwerte<br />
** sind von Leuchtdichte befreite Werte<br />
** verschwinden für alle unbunten Farben<br />
** Cr= R-Y, Cg = G-Y, Cb = B-Y<br />
** Das System aus CrCbCg und Y ist überbestimmt => Es reicht die Übetragung von Cr , Cb und Y<br />
* Da das Auge auf Helligkeitsunterschiede empfindlicher reagiert als auf Farbunterschiede können die Crominanzwerte mit geringerer Auflösung übertragen werden<br />
<br />
== ΘSY - System ==<br />
* Der Bunttonwinkel Θ berechnet sich aus dem Verhältnis der Crominanzwerte Cb und Cr<br />
* Die Sättigung S ist der Betrag des Vektors CrCb<br />
<br />
== HSI - Farbraum ==<br />
* Intensität: <math> I= \frac{R+G+B}{3} </math><br />
* Sättigung: <math> S = 1 - 3 \cdot min (r,g,b) </math><br />
* Hue: <math> H= \left\{ \begin{matrix}\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B\le G \\ 2\pi -\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B>G \end{matrix}\right . </math><br />
* Raum ist nicht gleichmäßig gefüllt<br />
* bei kleinen Intensitäten I in Buntton und Sättigung Instabil<br />
* Es kann bei Farbmanipulationen dazu führen das es keine Entsprechungen im RGB gibt<br />
** Lösungen:<br />
*** Dachförmige Begrenzung des HSI Raums -> sehr Aufwendig<br />
*** Normieren der Intensitäten -> Bild kann ins dunkle verschoben werden<br />
*** Maximalwert setzen -> Falsche Farbwerte (werden ins unbunte verschoben)<br />
*** proportionales skalieren bis Farbe im RGB-Würfel liegt<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
<br />
== HSL - Farbraum ==<br />
* Gern für Computergrafik verwendet<br />
* einfache Beziehungen<br />
* Die Verwendeten Biegriffe H,S,L entsprechen nicht der Bedeutung in der Farblehre und Form des Raumes<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
* Buntton ist extrem instabil bei kleinen Sättigungen<br />
* Form des Raumes ist unpraktisch<br />
<br />
= Farbmessung (GF 1 - 11) =<br />
<br />
* Farbmessung = Ermittlung der drei zu einer Farbvalenz gehörigen Farbmaßzahlen<br />
* 3 Messmethoden: <br />
** Vergleichsmethode oder Gleichheitsverfahren<br />
** Spektralverfahren<br />
** Dreibereichsverfahren<br />
<br />
== Gleichheitsverfahren ==<br />
<br />
* Vergleiche:<br />
** Vorlage mit additivem Gemisch<br />
** Vorlage mit Farbmusterkarten (DIN-Karten)<br />
* unverzichtbar bei physiologischen Untersuchungen<br />
* aufwendig und bei kleinen Probandengruppen ungenau<br />
* d.h. für technische Messungen ohne Bedeutung<br />
<br />
'''Messbedingungen nach DIN:'''<br />
* helladaptiertes und blendfreies Sehen<br />
* unbunter Messraum<br />
* neutrale Gesichtsfeldumgebung mit gleicher oder etwas kleinerer Leuchtdichte als im Messfeld<br />
* gut ausgeruhtes und neutral gestimmtes Auge<br />
* farbnormalsichtiger Beobachter<br />
<br />
== Spektralverfahren ==<br />
<br />
* zu messende Farbvalenz = Summe spektraler Farbvalenzen<br />
* greift auf gemessene Normspektralwertkurven zurück<br />
<br />
# '''spektrale Messung zur Ermittlung der Farbreizfunktion <math>\varphi (\lambda) </math>'''<br />
#* Selbststrahler: direkte Messung der Strahlungsfunktion <math>\rightarrow \varphi (\lambda)= S (\lambda)</math><br />
#* remittierende Vorlage: Remissionsfunktion der Vorlage messen, d.h. Strahlungsfunktion S ist vorher zu bestimmen und aus <math>\varphi (\lambda)</math> heraus zu rechnen <math>\rightarrow \varphi (\lambda)= \beta (\lambda) \cdot S (\lambda)</math><br />
# '''farbvalenzmetrische Auswertung'''<br />
#* wenn <math>\beta (\lambda)</math> ermittelt wurde, kann jede beliebige (tabellierte) Lichtquelle <math>S^{\ast} (\lambda)</math>eingesetzt werden<br />
#: <math><br />
\begin{bmatrix}<br />
X\\Y\\Z<br />
\end{bmatrix}<br />
= k \cdot<br />
\begin{bmatrix}<br />
\int \bar{x} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{y} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{z} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda<br />
\end{bmatrix}<br />
</math><br />
#* Normierungskonstante k:<br />
#** Selbststrahler: nur Farbwertanteile gefragt, d.h. k ist beliebig<br />
#** Körperfarben: Y für mattweißen Körper = 100, d.h. <math>k=\frac{100}{\int {S(\lambda) \cdot \bar{y}(\lambda) d \lambda}}</math><br />
<br />
'''Messgeometrien:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bildergalerie (45°,8°,Transmission) </span><br />
<br />
* ''45°-Geometrie'': Beleuchtung unter 45° schließt Glanzeinfluss aus <math>\rightarrow</math> Sensor blickt senkrecht auf Probe<br />
* ''8°-Geometrie'': Beleuchtung diffus über Ulbricht-Kugel <math>\rightarrow</math> Sensor blickt unter 8° auf Probe; Messung mit/ohne Glanz möglich<br />
* ''Transmissionsgeometrie'': Probe wird durchleuchtet<br />
<br />
== Dreibereichsverfahren ==<br />
* die drei Farbwerte werden direkt photometrisch gemessen<br />
* Filter und spektrale Empfindlichkeite der Strahlungsempfänger müssen an die spektrale Bewertungsfunktion angepasst sein<br />
* '''Luther-Bedingung:''' <math> \tau_x(\lambda) = \frac{c_x \cdot x(\lambda)}{s_1(\lambda)}</math><br />
** <math> \tau_x(\lambda) </math> ... Filtertransmission<br />
** <math>s_1(\lambda)</math> ... Sensorempfindlichkeit (hier im ersten Kanal)<br />
** <math>c_x</math> ... Gerätekonstante<br />
** Für den Y und Z Kanal ist die Formel analog<br />
* Der notwendige Filter kann gut durch ein Set von Schmalbandigen Filtern realisiert werden<br />
<br />
== Spektralmaskenverfahren ==<br />
<br />
* spezielles Dreibereichsverfahren<br />
* Lichtzerlegung erfolgt mit einem Prisma<br />
* Das zerlegte Lich beleuchtet eine Maske (Papier, Plaste, Metal .... ne richtige echte Maske)<br />
* Messen der spektralen Verteilung (CCD-Zeile)<br />
* Ähnlich dem Spektralverfahren nur das das spektrum bereits im analogen entsprechend gewichtet wird<br />
<br />
== Metamerie ==<br />
* zwei Farbproben die bei einer bestimmten Beleuchtung gleich aussehen können bei einer anderen Beleuchtung ganz anderst aussehen<br />
* Der Metermarie-Index beschreibt diesen durch Beleuchtungswechsel entstehenden Farbwechsel<br />
* KEIN Maß für die Farbkonstantheit sondern für den Unterschied von zwei Proben<br />
* Berechnung erfolgt im L*a*b* Raum <br> <math> M_T = \sqrt {(L_{1T}-L_{2T}+L_{2B}-L_{1B})^2 +(a_{1T}-a_{2T}+a_{2B}-a_{1B})^2+(b_{1T}-b_{2T}+b_{2B}-b_{1B})^2 } </math><br />
** T ... Testlicht<br />
** B ... Bezugslicht<br />
** 1,2 ... Probennummern<br />
<br />
= Klassifikation von Messaufgaben (GF 82 - 86) =<br />
<br />
# Messung von objektiven Eigenschaften, die sich in der Veränderung spektraler Charakteristika niederschlagen<br />
#* vordergründig ist Zusammenhang zwischen Veränderungen in den physikalischen Eigenschaften von Interesse (z.B. Waferinspektion)<br />
#* Zusammenhang sollte eindeutig und von hinreichender Empfindlichkeit sein<br />
#* Wahrnehmung unterschiedlicher Farben eher Nebeneffekt<br />
# Überwachung der Stabilität von farblichen Erscheinungen<br />
#* ist bei einer oder mehreren Beleuchtungen zu überwachen<br />
#* absolute Farbmessung nicht nötig; "Anlernen" auf Farben genügt<br />
#* Abstände im Farbempfinden müssen sich in gleicher Weise in Veränderungen der Sensorsignale wiederspiegeln<br />
# absolute Farbmessung<br />
#* d.h. Ermittlung der korrekten Farbvalenz unter beliebigen Messbedingungen<br />
#* Spektralwertkurven müssen realisiert werden<br />
# Messung des spektralen Remissions- und/oder Transmissionsverhaltens von Materialien<br />
#* ausschließlich spektrale Messverfahren<br />
#* Messung der Strahlungsfunktion und der remittierten Leistungsdichte<br />
#* Berechnung der Farbvalenz bei beliebiger Beleuchtung und des Metamerie-Index<br />
<br />
'''steigende Ansprüche mit steigender Nummerierung'''<br />
<br />
= Einfache Farbkalibrierung (GF 16 - 41) =<br />
* Farben sollen möglichst exakt Wiedergegeben werden<br />
<br />
== Ausgleich von Beleuchtungseinflüssen ==<br />
* Körperfarben werden durch ihre Remmision bestimmt <math> \beta </math><br />
* Bei unterschiedlicher Beleuchtung sehen Farben unterschiedlich aus aber das Auge kann sich an die Beleuchtung adaptieren<br />
** Funktioniert bei Fotos aber nicht -> Beleuchtungsausgleich ist wichtig<br />
** Bei Farbvergleich noch viel mehr<br />
** Wird realisiert durch Weißabgleich (auf integraler Farbebene nicht möglich )<br />
* Direkte Vermessung der spektralen Eingenschaften der Kamera nicht möglich (Da Werte in Kamera bereits verrechnet werden um z.B. die negativen Anteile der Spektralkurven zu realisieren)<br />
** sehr Aufwendig (Kamera auseinanderbasteln um an die echten werte zu kommen + das durchgehen durch das Spektrum in kleinen Schritten)<br />
* Daher Verwendung von Testfarben<br />
** Führt auf Lösung eines linearen Gleichungssystem<br />
** Für menschliches empfinden -> Optimieren im CIELAB-Raum<br />
* Vorsicht bei nichtlinearen Funktionen zur Farbkalibrierung -> Kann bei zu wenig Testfarben zu total falschen Ergebnissen führen !!<br />
<br />
= Color Management (F CM 1 - 20) =<br />
* verschiedene Geräte können verschiedenen Farben darstellen<br />
* verschiedene Geräte verwenden andere Grundfarben zum mischen<br />
* Mit Hilfe von Profilen (Tabellierung der Farbwerteumrechnungen) wird eine Konvertierung der Farben vom Geräteraum in den CIELab Raum bzw umgekehrt durchgeführt<br />
* in den Profilen wird auch vermerkt welche Farben darstellbar sind und welche nicht<br />
* Somit kann man eine "Druckvorschau" auch auf einem Monitor erreichen (natürlich nur für Farben die auf beiden Geräten dargestellt werden können)<br />
** Jedes Mapping der Farben (Gamut-Mapping stellt somit einen Kompromiss dar)<br />
**# Perceptual (Die Farbbeziehungen untereinander werden erhalten) Komprimierung des Gamuts bis er in den zur Darstellung verwendeten passt<br />
**# Colometrisch -> Exakte Reproduktion aller in beiden Gamuts darstellbaren Farben<br />
**## relativ -> weiß wird auf weiß abgebildet und alle anderen Farben relativ dazu<br />
**## absoult farbmetrisch<br />
**# Saturation, alle Farben außerhalb des Zielgamuts werden zugunsten der Sättiung verändert<br />
* Kalibrierung -> Versetzen des Gerätes in einen definierten, reproduzierbaren Zustand<br />
* Charakterisierung -> Modellierung eines Gerätes welches sich ein einem stabilen definierten Zustand befindet<br />
<br />
= Kameras (GF_Ka 1 - 12) =<br />
<br />
'''Einsatzfelder:'''<br />
* ortsaufgelöste Messung von Farbe<br />
* Aufnahme und Wiedergabe von True-Color Bildern<br />
* Aufnahme farbiger oder mehrkanaliger Bilder für die Verarbeitung/Analyse (Qualitätssicherung)<br />
* Photogrammetrische Anwendungen (Lösung des Korrespondenzproblems)<br />
* Radiometrische Anwendungen (Messen im Spektralbereich)<br />
<br />
'''Dreibereichsmessung:'''<br />
* setzt die Trennung von drei sich überlappenden Spektralbereichen voraus, die dann wellenlängenabhängig zu bewerten und zu integrieren sind<br />
<br />
== Dreichip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* optische Kanaltrennung und Bewertung<br />
* beste Bildqualität, da hohe Auflösung in allen drei Kanälen<br />
* keinen örtlichen Versatz der Pixel in den drei Farbauszügen<br />
* Filter einfacher und präziser zu realisieren<br />
* befinden sich z.B. als dichroitische Spiegel auf den Strahteilerprismen<br />
<br />
<span style="color:#ee0000;"> \\ Hot-Mirror-, Cold-Mirror-Korrektur????</span><br />
<br />
== Einchip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: doppelte Anzahl grüner Pixel wegen Schärfe, MTF des Auges </span><br />
<br />
* örtliche Kanaltrennung und Bewertung<br />
* Streifen- oder Mosaikfilterstrukturen auf den einzelnen Pixeln zur örtlichen Signaltrennung<br />
* 3 oder 4 unterschiedliche spektrale Auszuüge zur Erzeugung der Farbinformation<br />
* Matrix selbst kann Interline- oder Frame-Transfer-Matrix sein<br />
* kostengünstiger und kleiner als Dreichip-Kameras<br />
* Probleme:<br />
** Farbvalenzen aus örtlich versetzten Auszügen (z.B. Farbsäume an Kanten)<br />
** nicht korrigierbare Fehler aus Nichtlinearitäten und Dunkelsignalen bei der Bildung von Mischsignalen<br />
<br />
'''generelle Anforderungen an die Signalverarbeitung:'''<br />
<br />
* primäre Kamerasignale stellen keine farbmetrische Schnittstelle zur Verfügung, d.h. alle Bewertungsfunktionen sind nicht-negativ (Spektralwertkurven fordern aber negative Wichtungen)<br />
* je nach realisierten Filtern und Genauigkeitsansprüchen <math>\rightarrow</math> lineare Matrizierung (meist Kameraintern) oder komplexere Approximation<br />
* bei hohen Genauigkeitsansprüchen <math>\rightarrow</math> Umgehung der Kamerainternen Matrizierung, weil Verstärkungsfaktoren, Toleranzen, Temperaturdrift, Langzeitstabilität etc. nicht bekannt sind<br />
* insgesamt geringe Nichtlinearitäten der CCD's können in den Ansteuerbereichen der einzelnen Kanäle zu wesentlichen Fehlern führen:<br />
** Farbvalenz ändert sich kontinuirlich mit der Shutterzeit<br />
** Pixelweise DSNU- (Dunkelsignalungleichförmigkeit) und PRNU- (Hellsignalungleichförmigkeit) Korrektur vor Erzeugung der Farbvalenz erforderlich, da sich Festmusterrauschen nicht nur auf Intensität sondern auch auf Farbart auswirkt<br />
** Dunkelsignal verdoppelt sich alle 7K, Gleichanteil wird aber geklemmt<br />
** Lichtquellentyp und Langzeitverhalten wirken sich nicht nur Intensität sondern auch auf Farbtemperatur aus<br />
<br />
'''4 spektrale Bereiche:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* vorteilhaft zur Erzeugung von Farbdifferenzsignalen für die TV-Kompatibilität<br />
* im Field-Integration-Mode werden Mischsignale gebildet, die die erforderliche Signalkorrektur für hohe Ansprüche behindern<br />
* Nichtlinearität der Ausgangsverstärker wirkt sich auf Korrektur der primären Mischsignale aus<br />
<br />
== Sequentielle Einchip-Kamera ==<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* zeitliche Kanaltrennung und Bewertung<br />
* relativ genaue Approximation der Spektralwertkurven möglich<br />
<br />
== Elektrisch steuerbare Filter ==<br />
<br />
* über die Wellenlängenabhängigkeit der Eindringtiefe der Photonen und die Steuerbarkeit der Tiefe der Potentialmulden der sensoren lassen sich steuerbare spektrale Empfindlichkeiten erzeugen<br />
<br />
= Verarbeitung von Farbbildern (1 - 31) =<br />
* Das unabhängige verarbeiten der Farbkanäle eines Farbbildes führt zu Nebeneffekten wie Farbsäume<br />
* Die höhere Vielfalt des mehrdimensionalen Raumes von Farbbildern kann Vorteilhaft genutzt werden für Pixelklassifikation, Segmentierung <br />
* Abstände, Mittlere Werte und örtliche Veränderungen sind in empfindungsmäßig gleichabständigen Räumen zu definieren und zu bewerden<br />
<br />
== Histogramme und Statistiken für Farbbilder ==<br />
* Farbbilder liefern dreidimensionale Häufigkeitsverteilungen im Farbraum → können als Approximation der entsprechenden 3D-Dichten verwendet werden<br />
* statistische Zusammenhänge zwischen den Kanälen werden in mehrdimensionalen Dichten betrachtet<br />
** Für Handauswertung meist nur 2D-Dichten, wegen der Übersicht<br />
** Für maschinelle Auswertung können diese dichten auch dreidimensional werden<br />
** für die parametrische Darstellung der Cluster werden meist multivariante Gaußverteilungen eingesetzt<br />
*** Einr Gaußverteilung ist für die Beschreibung eines Bildes mit mehreren Objekten nicht geeignet<br />
*** Die Kovarianzmatrix einer solchen "Approximation" kann aber gut zur Einschätzung der Streuung und der Mittelwerte in dem Bild eingesetzt werden<br />
<br />
=== Histogramm - Modifikationen ===<br />
* Contrast Streching, Polygonal Image Scaling, Histogram-Equalisation Siehe [[Grundlagen der Bildverarbeitung und Mustererkennung#homogene Punktoperationen|Grundlagen der Bildverarbeitung]]<br />
* Manipulation kann in verschiedenen Farbräumen ausgeführt werden (RGB,HSI,...)<br />
** In nicht empfindungsmäßig gleichabständigen Räumen muss die Transformation nicht unbedingt zum Ziel führen<br />
==== Manipulation im Farbraum RGB ====<br />
* ist der Farbraum in dem die Daten häufig vorliegen<br />
* Wirkung kann auf Grund der starken korrelation der RGB Werte bei geringen Sättigungen ausbleiben<br />
* Farbverfälschung wenn einzelne Kompontenen unabhänig von einander behandelt werden<br />
* hohes apriori-Wissen notwendig<br />
* wenn Falschfarbdarstellung gewünscht ist kann dies das mittel der Wahl sein<br />
<br />
==== Manipulationen im Farbraum HSI ====<br />
* unproblematisch in Bezug auf Farbverfälschungen<br />
* Zielsetzungen können sich einfacher beschreiben lassen (ähnelt der Beschreibung von Farbe durch den Menschen)<br />
* unabhängige Komponente (Intensität)<br />
* Kontrastverbesserung durch Sättigungsausgleich ohne Farbveränderung möglich<br />
* Stabilitätsprobleme nahe den unbunten Farben<br />
# '''Ausgleich des Intensitätshistogramms'''<br />
#* Werte möglich die keine entsprechung mehr im RGB haben → müssen geeignet herruntergerechnet werden<br />
#* bei kleinen Intensitäten sind die Bunttöne instabil → ausschließen von Veränderungen<br />
# '''Sättigungsausgleich'''<br />
#* Modifikation der Sättigung unter Beibehaltung des Bunttones<br />
#* Bei kleinen Sättigungen und kleinen Intensitäten ist der Buntton instabil → Ausschließen<br />
#* Histogramm über alle Bunttöne ist häufig verschmiert → besser Histogramm über Buntton Segmente<br />
# '''Bunttonausgleich'''<br />
#* Ziel sind Farbfalschbilder um Objekte besser unterscheiden zu können<br />
#* bei zu großen Buntton Änderungen wird die Interpretierbarkeit nur bei homogenen Flächen verbessert, meist wird sie eher verschlechtert<br />
#* Unsicherheit des Bunttons → bei geringen Sättigungen und Intensitäten ist der Buntton auszuschließen<br />
<br />
== segmentgesteuerte Farbvalenztransformationen ==<br />
* Globale Statistiken werden häufig durch nicht interressante Objekte dominiert<br />
* Ausweg ist das Betrachten von Ausschnitten und anwenden der Transformationen auf die Ausschnitte<br />
* erfordert zu erst das Segmentieren des Bildes<br />
<br />
= Referenzfreie Farbadaption auf Basis des 3D-Histogramms (HuS 32 - 39 ) =<br />
* unter bestimmten umständen kann auf eine Kalibrierung der Kamera mittels Referenzfarben verzichtet werden<br />
* Zur Korrektur soll die parametrische Approximation der 3D-Histogramme durch multivariante Gaußverteilungen genutzt werden<br />
== Vorraussetzungen für die Anwendbarkeit ==<br />
* Strukturierte Szene mit mehreren ntürlichen Objekten, die gleichmäßig über den Bunttonwinkel verteilt sind und durchschnittlichen Sättigungsgrad aufweisen<br />
* Langgestreckter SW-Prozess im Vergleich zum Rot-Grün und Blau-Gelb Prozess<br />
<br />
== Vorgehensweise ==<br />
* Korregieren von "vermutlichen" Abweichungen des Bildes in der Unbuntheitsachse<br />
* Dazu Ermitteln der Hauptachsen mit PCA<br />
* Drehen der Hauptachse in den SW-Prozess<br />
* Rücktransformation und Darstellung<br />
<br />
= Histogrammbasiertes Farbmatching(1 - 15) =<br />
* Histogramme sind im 2D Bild invariant gegenüber Rotation, Translation und Maßstab (wenn die Angaben relativ erfolgen !)<br />
* Histogramme sind auch relativ stabil gegenüber moderaten Verdeckungen und 3D-Rotation<br />
* Grobe Quantisierung der Histogramme um Fehlertoleranz zu erhöhen<br />
* Damit können Histogramme zur Objekterkennung eingesetzt werden → Bezeichnet als Color Indexing<br />
<br />
== uniformes Binning ==<br />
* einteilen der Farben in ein gleichverteiltes Histogramm<br />
* Suche in einem Bild den Ausschnitt welcher eine minimale Distanz zum Referenzbild hat<br />
* Als Abstandsmaß verwendet werden die Histogramme genutzt<br />
** Summe der Quadratischen Differenzen (Histogramme als Vektoren betrachtet und dann den euklidischen Abstand berechnet ohne Wurzel)<br />
** Earth Movers Distance (Berechnen was sich wohinverteilt haben könnte ... erfordert die Lösung des Transportproblems)<br />
* einfach aber die Bins ändern sich Sprunghaft, vor allem dann wenn Farben knapp an den willkürlichen Bingrenzen liegen<br />
<br />
== Unscharfe Chroma-Orts-Histogramme ==<br />
* Nachteile des uniformen Binning sollen überwunden werden<br />
* Alle Pixel bekommen eine unscharfe Klassenzugehörigkeit (Binnzugehörigkeit) je nach Abstand zum entsprechenden Binnmittelpunkt (wie bei [[Softcomputing|Fuzzy-C-Means]])<br />
** Ein Parameter ermöglicht dabei die Verunschärfung einzustellen (von total unscharf bis zum festen Binning)<br />
* Auch der absolute Ort der Segmente (aus denen die Histogramme erstellt werden) soll mit verwendet werden<br />
** Dazu wird das Bild in entsprechende Bereiche geteilt (8x8,16x16,...)<br />
** Alle Blöcke werden durchnnummeriert<br />
** Auch hier kommt es zu harten Umbrüchen wenn Pixel knapp an den Grenzen liegen → auch hier verunschärfen<br />
** Welche Indizees haben die Nachbarn? (Nachbarschaft in den Indizees der Blöcke heißt nicht gleich 2D-Nachbarschaft)<br />
<br />
== Cluster mittels Graphenansatz ==<br />
* Ziel ist es:<br />
** Sprunghafte Änderung der Binns zu verhindern<br />
** wenige Merkmale zu verwenden<br />
** Eng beieinander liegende Maxima trotzdem unterscheiden zu können<br />
* Verwendete Bilddaten:<br />
** Farbwinkelhistogramm, wenn Sättigung der Farben ausreichend ist<br />
** Intensitätsdiagramm, wenn Sättigung der Farben zu gering wird<br />
* Vorgehen:<br />
** Jeder Wert im Histogramm zeigt auf den Größten in seiner Nachbarschaft<br />
** Das Maximum zeigt auf sich selbst → Wird Merkmal<br />
** Weiteres Merkmal ist die Fläche die zum Maximum gehört (Nachbarn die direkt bzw. indirekt auf das entsprechende Maximum zeigen)<br />
* Match:<br />
** Finde ein Tupelpaar (Maxima in Referenzhistogram und Suchhistogram mit dem geringsten Abstand)<br />
** Ziehe gemeinsame Fläche von jedem Tupel des Paares ab<br />
** summiere gemeinsame Fläche (?)<br />
** Wiederhole bis sich keine Tupelpaare mehr bilden lassen<br />
** beziehe die laufende Summe auf das Maximum der Summe der ursprünglichen Flächen<br />
<br />
= Störunterdrückung (SU 1 - 16) =<br />
* Für nachfolgende Verarbeitungsschritte ist die Störunterdrückung sehr wichtig<br />
* Verschiedene verfahren der Rauschunterdrückung sind in [[Grundlagen der Bildverarbeitung und Mustererkennung#Lokale Operatoren zur Bildverbesserung (LOa 1 - 44) |BV]] eingeführt worden<br />
<br />
== Störunterdrückung durch Faltungsfilter ==<br />
* Anwendung wird einfach vektoriell durchgeführt (als würde man drei unabhängige Bilder gleichzeitig Filtern wollen)<br />
* es entstehen neue Farbtöne an den Übergängen zwischen Farben<br />
* im HSI Farbraum ist eine getrennte Betrachtung der Farbe und der Sättigung/Intensität möglich<br />
* Buntton ist zyklisch → muss bei der Mittelung beachtet werden<br />
* in der Farbe kann stärker gemittelt werden als in der Helligkeit (Auge nimmt Farbveränderungen schlechter wahr)<br />
* Komplexe Zahlen bieten sich hier als Rechenmittel an<br />
<br />
== adaptive gewichtete Mittelung ==<br />
* detailerhaltende Fähigkeiten von Filtern wegen der Farbsäume besonders von Interesse<br />
* Abstände verkomplizieren sich im Vergleich zu Grauwertbildern (Vektorabstandsmaße, Winkeldifferenzen,...) <br />
* Vorgehen nach dem Berechnen des Abstandes dann wieder Analog zur Grauwertfilterung<br />
<br />
== Medianfilterung ==<br />
* Problem bei der Übertragung des Rangordnungsgedankens auf Vektoren<br />
** Komponentenweises Vorgehen ist nicht geeignet (absolute Farbverfälschungen möglich)<br />
** Suche des besten Vertreters des SETS (wenn der verwendete Media im SET ist werden keine zu falschen Farben gewählt/gesetzt)<br />
*** kleinste Abstandssumme zu allen anderen Pixeln<br />
<br />
== Kombination von Averaging und Medianfilterung ==<br />
* Medianfilter ist gut für Impulsrauschen, schlecht bei Gauß hier ist Average gut<br />
* Bei den Filtern gibt es keinen unterschied zu den Grauwertbildern (unterschied besteht nur in der Realisierung der verwendeten Media/Average Filter nicht in ihrere Kombination)<br />
<br />
== Vektor-Richtungs-Filter ==<br />
* '''Basic Vecotr Directional Filter'''<br />
** Winkel zwischen Farbvalenzen als Distanzmaß<br />
** Ergebnis ist die Farbvalenz mit der kleinsten Winkeldifferenzsumme zu allen Valenzen des Fensters<br />
** Achromatische Rauschkomponenten werden nicht beseitigt<br />
* '''Generalized Vector Directional Filter '''<br />
** Suche nach den besten Vektoren aus Sicht der Richtung<br />
** Medianfilterung der Beträge der Vektoren<br />
* '''Directional Distance Filter'''<br />
** Vermeiden der Ineffizenz des GVDF Filters durch ein gemischtes Distanzmaß (Betrag und Winkel gleichzeitig)<br />
<br />
= Kantendetektion in Farbbildern (1 - 21) =<br />
* Wichtig für Segmentierung, Bildanalyse und Bildverstehen<br />
* [[Grundlagen der Bildverarbeitung und Mustererkennung#Kantendetektion (LK 1 - 38)| Kantenfilter]] bereits aus BV bekannt<br />
# '''Vektrogradient'''<br />
#* Berechnen der Jacobi-Matrix<br />
#* Wurzel aus dem größten Eigenwert ist der Vektorgradient<br />
#* Extrem Rechenaufwendig<br />
# '''Mittelwert der Richtungsableitungen'''<br />
#* Entspricht dem Gradienten im Intensitätsbild<br />
#* Zwei engegengesetzte Gradienten in unterschiedlichen Farben können sich gegenseitig aufheben → der Gradient der dritten Farbe dominiert egal wie klein er ist<br />
# '''Maximaler Gradient'''<br />
#* Suche nach dem Gradienten mit dem größten Betrag<br />
#* Korrelation der einzelnen Gradienten ist nicht von Bedeutung<br />
<br />
= Farbpixelklassifikation (Farbpixelklassifikation 1 - 21) =<br />
* Die Farbvalenzen bilden die Merkmale der Pixel<br />
* Anzustrebende Eigenschaften<br />
** Gute Beschreibung der Klassencluster und gute Trenneigenschaften<br />
** Einfache Belehrbarkeit (Aus Beispielen oder Expertenwissen)<br />
** Echtzeitfähigkeit<br />
** möglichst frühe Stufe der Verarbeitungskette ("Anspruchslosigkeit an das Bild")<br />
** Nutzen von Klassenzugehörigkeitsmaßen<br />
<br />
== optimaler Klassifikator ==<br />
* basiert auf dem Bayes-Theorem<br />
* findet die optimale Klassenentscheidung<br />
* Jeder Datenpunkt wird in die Klasse eingeordnet zur der er am Wahrscheinlichsten gehöhrt und bei der er die kleinsten Kosten für die anderen Klassen verursacht<br />
** Benötigt eine Risikofunktion die Angibt wie groß die Kosten bei Fehlklassifikation zwischen zwei Klassen sind<br />
*** Meist unbekannt und deswegen wird davon ausgegangen das die Kosten für jede Fehlklassifizierung gleich sind<br />
*** Kosten können durchaus auch bei richtiger Klassifikation definiert werden<br />
** Benötigt die Wahrscheinlichkeitsverteilung der Klassen im Raum (Meist unbekannt → Problem)<br />
*** können beliebig sein werden aber meist durch Gaußfunktionen approximiert<br />
*** in der Lernphase werden die Parameter dieser Verteilung geschätzt<br />
* Da Wahrscheinlichkeitsverteilung meist unbekannt ist, wird der Klassifikator ehr genutzt um einen anderen Klassifikator zu bewerten, wenn man eine bestimmt Wahrscheinlichkeitsverteilung festlegt (wie optimal ist der andere Klassifiaktor)<br />
<br />
== Maximum-Likliehood-Klassifikator ==<br />
* im Ansatz wie optimaler Klassifikator<br />
* setzten der Risikofunktion für alle Fehlklassifikationen auf einen konstanten Wert<br />
* verwenden von multivarianten Gaußdichten zur Beschreibung der Klassen<br />
* Entscheidung wird nur noch nach der a posteriori Wahrscheinlichkeit und der Klassen Verteilung gefällt<br />
<br />
== Malanobis-Abstandsklassifiaktor ==<br />
* schränkt den optimalen Klassifikator noch weiter ein im vergleich zum MLK Klassifikator<br />
* Kostenfunktion für Fehlklassifikation ist konstant für alle Fehlklassifikationen<br />
* Die a posteriorie Wahrscheinlichkeit für das auftreten der Klassen sein für alle Klassen gleich<br />
* Die Kovarianzmatrizen der Gaußverteilung der Klassen sind ähnlich<br />
* Damit ist die zuordnung zu den Klassen nur noch vom Abstand zu den Klassenzentren bestimmt<br />
** Abstandsmaß ist die Mahalanobis-Distanz<br />
<br />
== Gaußklassifikator und Kernel-Densitiy-Klassifikator ==<br />
* schränken noch weiter ein<br />
# '''Gaußklassifikator'''<br />
#* keine Kovarianzen mehr in der klassen Verteilung → Kugelförmige Klassenverteilungen<br />
# '''Kernel-Density-Klassifikator'''<br />
#* Spezialfall von Gauß-Mischverteilungen<br />
#* [... was genau der Macht frage ich in der Konsultation mal nach ... im Skript steht nix brauchbares]<br />
<br />
== LUT-Klassifikator ==<br />
* direktes Verwenden der Stichprobenhistogramme<br />
* erforder Closing im Merkmalsraum da nicht alles durch die Stichproben abgedeckt werden wird<br />
<br />
= Clusterverfahren (Farbpixelklassifikation 19 - 29) =<br />
* Ziel ist es komplexe Klassenbeschreibungen durch mehrere parametrische Einzelcluster zu approximieren<br />
* Beliebig komplexe Klassenformen lassen sich so Speichereffizient beschreiben<br />
* trotz Komplexer Beschreibung bleibt eine weiche Klassengrenze möglich<br />
<br />
== Erzeugen der Cluster ==<br />
=== Radiusrestriktionsmethode ===<br />
* keine Startpartition erforderlich<br />
* indirekte Optimierung: Zielfunktion dient nur der Bewertung der fertigen Partition<br />
* Ablauf:<br />
*# Erstes Element initialisiert das erste Cluster<br />
*# Alle Elemente werden einem Cluster zugeordnert wenn der Abstand zum Clusterzentrum unterhalb eines bestimmten Wertes liegt<br />
*# Für alle Elemente die damit ausserhalb der Cluster liegen wird ein neuer Cluster angelegt<br />
*# Wichtig ist eine gute Radiusschätzung der Cluster (Varianz der Stichprobe durch Anzahl der gewünschten Cluster)<br />
*# als Gütefunktion nutzt man die Quadratische Abweichung von den Clusterzentren<br />
<br />
=== Minimaldistanzmethode ===<br />
# Ausgangspunkt ist eine nur die Radiusrestriktionsmethode erstellte Partition<br />
# Alle Klassen Mittelpunkte werden neu Berechnet<br />
# Berechnen einer neuen Minimaldistanzpartiton anhand einer gewählten Metrik<br />
# Ein Abbruchkriterium entscheidt über das weitere vorgehen<br />
#* Kriterium für Partition ist besser geworden → mache Weiter<br />
#* Anzahl der Interationschritte überschritten → Abbruch<br />
#* Anzahl der Interationschritte noch nicht überschritten && Kriterium für Partition ist gleich geblieben → mache weiter<br />
#* Kriterium für Partition ist schlechter geworden → breche ab<br />
<br />
=== k-Means-Austauschverfahren ===<br />
# Ausgangspunkt ist eine Startpartition<br />
# Merkmalsvektoren umgruppieren wenn die distanz zu einem anderen Klassenzentrum kleiner ist als zum aktuellen<br />
# Neu berechnen der Klassenmetriken<br />
# Abbruch wenn anzahl der Interartionsschritte überschritten ist oder keine Umgrupierung mehr erfolgt<br />
* Meist eingesetzt wird die Mahalanobis-Distanz → Hypereliptische Cluster die sich wunderbar eignen langgestreckte Verteilungen zu approximieren<br />
= Trennfunktionsklassifikatoren (Farbpixelklassifikation 30 -39) =<br />
* Bei gegen Null gehenden Verteilungsdichten trangen weit entfernte Regionen keine Aussagekraft mehr → daher ist es Angebracht eine Rückweisungsklasse einzuführen<br />
<br />
== Mahalanobis ==<br />
* Verwenden der Mahalanobis-Distanz zur Klassifikation<br />
* wenn die Hauptdiagonale der Kovarianzmatrix >> als die restlichen Matrixelemente<br />
** Vereinfachung des Distanzmaßen möglich zu einem achsenparallelen Elipsoiden<br />
* wenn Streuung der einzelnen Merkmale gering ist vereinfacht sich der Ellipsoid zu einer Kugel (euklidisches Abstandsmaß)<br />
* wenn Streuung in den Klassen etwa gleich Groß ist können die Klassenspezifischen Skalierungen entfallen<br />
<br />
== Hyperquader-Klassifikation ==<br />
* Zur Zuordnung sind nur noch Intervalltests notwendig<br />
* Sehr grobe approximation der Klasse da meist elliptische Datenverteilungen auftreten<br />
* Funktioniert gut bei dekorrelierten Merkmalen → achsenparallele Ellipsen<br />
* schnell und einfach<br />
* kann eingesetzt werden um die Überlappung von Klassen zu abzuschätzen<br />
<br />
== Decision-Tree-Klassifikator ==<br />
* Verwenden einfacher Schwellen zur Abgrenzung der Klassen<br />
* Klassenbeschreibungsräume werden durch meherere Grenzen beschrieben<br />
* Effiziente Beschreibung erfolgt mit Bäumen<br />
<br />
== Linear Klassifikator → Hyperebene ==<br />
* Trennen des Merkmalsraumes mittels Hyperebene in zwei Halbräume<br />
* Separierbare Zweiklassenprobleme sind damit lösbar<br />
* Nichtlineare Klassengrenzen können stückweise lineare Aproximation mit mehreren Teilebenen gelöst werden<br />
* mittels Gradientenabstieg wird die Hyperebene angepasst<br />
* Eeiterentwicklung ist die SVM<br />
<br />
== Support Vector Machines ==<br />
* Maximierung des Abstandes der Trennebene von den Klassenrepresentanten<br />
* Transformation in einen höherdimesnionalen Raum um linear sepparieren zu können<br />
<br />
== k-Nächster-Nachbar-Klassifikator ==<br />
* Klassifikation erfolgt nach dem Abstand zum nächsten Klassenrepresentanten aus der Stichprobe<br />
* Metrik kann beliebig gewählt werden<br />
<br />
= Neuronale Klassifikatoren (Farbpixelklassifikation 40- 45) =<br />
== Multi-Layer-Perzeptron ==<br />
* entspricht der Vernküpfung mehrerer linearer Klassifikatoren <br />
* i.a. zwei Hiddenschichten mit Fermi-Ausgabefunktion<br />
* Anlernen ist aufwendig<br />
* Stabilitäts-Plastizitäts-Dilemma<br />
* Gegenbeispiele fürs Training notwendig ... meist aber nicht vorhanden → Problem<br />
* Vollständige Verkopplung der Hiddenschicht<br />
<br />
=== Modulare Netzwerke ===<br />
* wie MLP nur das die Hiddenschicht nicht vollständig verkoppelt ist<br />
* Ausbildung von Segmenten die sich auf spezielle Merkmale spezialisiert werden<br />
<br />
== RBF-Netzwerke ==<br />
* Bestehen aus Eingabe, RBF und Ausgabeschicht<br />
* Jeder RBF-Knoten hat eine Position im Merkmalsraum<br />
* Aktivierung durch Abstände im Merkmalsraum unter Berücksichtigung der RBF<br />
* Zusammensetzen der Klassenregionen<br />
<br />
== Self Organizing Feature Maps (SOFM) ==<br />
* Nur Input/Output Schicht<br />
* Abbilden eines Hochdiemesnioinalen Raumes auf einen niederdimensionalen<br />
* Ähnliche Muster werden auf benachbarte Neuronen abgebildet<br />
* Selbsständiges erkennen der Struktur der Klassen<br />
* Bestimmen des Best Matching Neurons mittels abstand<br />
* Anpassen der Gewichte erfolgt beim Training nach dem Abstand<br />
** Anfangs werden benachbarte Neuronen mit trainiert um Nachberschaft zu erhalten später dann nicht mehr<br />
<br />
= Segmentierung (Seg 1 - 8) =<br />
* Ziel: Tiefgründige Bildinhaltsanalyse<br />
* Siehe auch: [[Grundlagen der Bildverarbeitung und Mustererkennung#Segmentierung von Bildern (RS 1 - 15) | Grundlagen der Bildverarbeitung und Mustererkennung]]<br />
* Zur Eignung welche Merkmale sich besonderst eignen und welcher Farbraum besonderst gut ist gibt es widersprüchliche Aussagen<br />
* Daher sollte immer ausprobiert werden welches der Merkmale am geeingnetsten ist für eine bestimmte Aufgabe<br />
== Hierarchische Segmentierung ==<br />
* Maskieren bereits Segmentierter Bildbereiche (werden ausgeblendet)<br />
* Für den Rest beste Unterscheidungsmerkmal suchen um weitere Segmente abzutrennen<br />
** Pixelklassifikation und normale Segmentierung wie bei GW -Bildern<br />
* wiederhole bis das ganze Bild segmentiert ist<br />
<br />
<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Grundlagen_der_Farbbildverarbeitung&diff=7001Grundlagen der Farbbildverarbeitung2009-03-17T13:36:31Z<p>DarkGhost: /* Neuronale Klassifikatoren (Farbpixelklassifikation 40- 45) */</p>
<hr />
<div>Link zum [http://www.zbs-ilmenau.de/intern/vip-toolkit/index.php Vip toolkit]<br />
= Einführung (GF_a 8 - 47) =<br />
<br />
== Geschichtliches zur Farbe ==<br />
<br />
=== Newton ===<br />
<br />
* 1672: New Theory about Light and Colours<br />
** Sonnenlicht = Mischung einzelner Farben<br />
** Spektralfarben sind objektive Eigenschaft des Lichtes<br />
<br />
[...]<br />
<br />
=== Goethe ===<br />
<br />
[...]<br />
<br />
== Begriff der Farbe ==<br />
<br />
* '''Farbe im engeren Sinn, stellt eine spezielle menschliche Sinneswahrnehmung dar'''<br />
* <math>\Phi_i = \int_{\Delta \lambda_i} \varphi_{\lambda} (\lambda) d \lambda</math><br />
* Leistungsdichte <math>\phi (\lambda)</math> stellt dagegen den Farbreiz dar, der die Farbempfindung hervorruft<br />
* Vektoren <math>\underline \Phi</math> sind je nach Dimension mehr oder minder genaue Approximationen des Farbreizes<br />
<br />
* Orientierung am menschlichen visuellen System und die Betrachtung psychologischer und physiologischer Grundlagen sind von Interesse:<br />
** zur richtigen Bewertung der Schwierigkeiten und Herausforderungen bei der Schaffung technischer Lösungen<br />
** zur Anpassung technischer Lösungen der Bildwiedergabe an das visuelle System<br />
** zur Nutzung optimaler Naturprinzipien für technische Lösungen<br />
** weil technische Systeme im allgemeinen auf dem inneren Modell des Menschen von der Welt beruhen und dieses Modell in hohem Maße durch den visuellen Kanal des Menschen beeinflusst ist<br />
** weil optoelektronische Sensoren, Bildverarbeitung und Bildanalyse wichtige Schnittstellen zwischen Mensch und Maschine darstellen<br />
**weil viele Objekteigenschaften durch visuelle Eindrücke beschrieben werden<br />
<br />
* menschliches Auge kann ca. 100 Graustufen / ca. 300 000 Farben unterscheiden<br />
<br />
* Drei grundsätzliche Anwendungen von Farbinformation:<br />
** Pseudokolorierung<br />
** Falschfarbendarstellung<br />
** Echtfarbdarstellung (True Color) <math>\rarr</math> hier Schwerpunkt<br />
<br />
== Farbtäuschung ==<br />
<br />
* Zuordnung zwischen Physik und Wahrnehmung nur eindeutig wenn bunte Dinge isoliert betrachtet werden<br />
* Werden bunte Objekte in bunte Umgebungen eingebettet/bewegt, dann können abweichende Farbwahrnehmungen auftreten, so genannte Farbtäuschungen<br />
* es existieren unterschiedliche Arten solcher Täuschungen:<br />
** ''Farbinduktion oder simultaner Farbkontrast'' (Farbe wird durch ihre Umgebung modifiziert)<br />
** ''Farbkonflikt'' (es konkurrieren verschiedene Sehinformationen miteinander)<br />
** ''Subjektive Farben'' (es werden bunte Farbtöne wahrgenommen, die nicht vorliegen)<br />
<br />
'''Simultaner Farbkontrast:'''<br />
* erstmals 1839 beschrieben<br />
* wo der Effekt entsteht (Auge, Cortex) ist unklar<br />
<br />
'''Farbinduktion:'''<br />
* bei kleinteiligen, sich wiederholenden Strukturen erfolgt Angleichung<br />
* kann zur Rauschunterdrückung oder zur Unterdrückung von Feintexturen zugunsten der Erkennung größerer Objekte wichtig sein<br />
<br />
'''Farbkonflikt:'''<br />
* Formen und Strukturen konkurrieren mit Farben ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf White'sche Illusion])<br />
<br />
'''Subjektive Farben:'''<br />
* durch Bewegung ist es möglich Farben zu erzeugen die ursprünglich nicht vorhanden waren ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf Drehwurm in Farbe])<br />
<br />
== Farbwahrnehmung beim Menschen ==<br />
<br />
[...]<br />
<br />
=== Rezeptive Wahrnehmung ===<br />
* 1807 stellte Young die Hypothese auf das Farbsehen auf drei Arten von Sinneszellen beruht (rout,grün,blau)<br />
* erst 1964 konnten dies bewiesen werden, durch die Messung der Absorptionsspektren<br />
*[[Datei:Pdt-kurven.svg]]<br />
<br />
=== Postrezeptive Wahrnehmung ===<br />
* Mit dem 3 Farbenmodell konnten einige psychologische Erscheinungen nicht erklärt werden<br />
** Es werden 4 Farben als besonderst "rein" empfunden (Rto, Geln,Grün, Blau)<br />
** Unbunte Farben werden werden als das fehlen von Farben wahrgenommen<br />
** Schwarz schein gleichberechtigt zu Weiß<br />
** keine wahrgenommene Farbe erscheint zugleich rötlich und grün<br />
* das führte zur Gegenfarbentheorie die anfangs nur Psychologisch begründet war 1958 aber physiologisch Nachgewiesen werden konnte<br />
** Rot - Grün<br />
** Gelb - Blau<br />
** Schwarz - Weiß<br />
* → CIELab-Farbraum<br />
<br />
=== Kortikale Kodierung ===<br />
* Weder die 3 Farbentheorie noch die Gegenfarbentheorie beschreiben die bewusste Wahrnehmung des Menschen<br />
* Deshalb erweitertes Modell<br />
** Farbton / Buntton beschreibt die als besonderst rein empfundenen Spektralfarben<br />
** Sättigung beschreibt wie stark eine Farbe verblasst ist<br />
** Helligkeit beschreibt, wie hell oder dunkel eine Farbe ist<br />
* Wo/Wie genau die neuronale Verarbeitung erfolgt, ist noch nicht sicher belegt<br />
<br />
== Die Ordnung in der Welt der Farben ==<br />
* Newton kannte die Wellenlänge noch nicht → er ordnete die Farben nach dem Regenbogen<br />
* Goethe verwendete das Gegenfarbenmodell<br />
* Munsell schlug 1905 ein Farbordnungssystem vor bei dem alle Abstände zwischen den Farben Empfindungsmäßig gleich sind<br />
** führt zu einem geometrisch nicht regelmäßigen Körper<br />
<br />
== Das Modell der Farbe ==<br />
* '''Definition'''<br />
** Farbe ist diejenige Gesichtsempfindung eines dem Auge strukturlos erscheinenden Teils eines Gesichtsfeldes durch die sich diser Teil bei einäugiger Betrachtung mit unbewegtem Auge von einem gleichzeitig gesehenen ebenfalls strukturlos angrenzendem Bezirk allein unterscheidet (unbunte Farben: Schwarz, Weiß und Graustufen, bunte Farben: Helligkeit; Buntheit setzt sich aus Buntton und Farbsättigung zusammen)<br />
** Farbe ist durch Helligkeit, Buntton, Sättigung eindeutig bestimmt → 3D Modell<br />
*** drei linear unabhängige Größen<br />
*** Additive Mischung zur Reproduktion von Farbe (aus Rot, Grün, Blau)<br />
*** drei linearunabhängige Größen spannen immer einen Raum auf → Rot,Grün und Blau werden die Achsen dieses Raumes<br />
<br />
=== Farbvalenz ===<br />
* Mit unserem Modell läßt sich jede Farbe als linearkombination unserer drei Basisvektoren aufschreiben<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
** <math> \vec F</math> ... Farbvalenz<br />
** <math> \vec r, \vec g, \vec b </math> ... die drei Basisvektoren die den Raum aufspannen (Rot, Grün und Blau)<br />
** <math> R,G,B, |\vec F| </math> ... die Farbwerte<br />
** <math> \vec r \cdot R, \vec g \cdot G, \vec b \cdot B </math> ... die drei Primärvalenzen<br />
* Ermittelt werden die Farbwerte mit Hilfe der Vergleichsmethode<br />
** Eine Person vergleicht ein Target mit einer Farbe die aus den drei Primärvalenzen gemischt wird<br />
** wenn die Empfindung der beiden Farben gleich ist, dann notieren wir die Werte<br />
* Innere Farbmischung<br />
** das Target wird mit weißen Licht beleuchtet und wir drehen nur an dem Farbmischgerät<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
* Äußere Farbmischung<br />
** Wir beleuchten das Target mit farbigen Lichte<br />
**<math> \vec F+ B \cdot \vec b = R \cdot \vec r + G \cdot \vec g \rightarrow \vec F = R \cdot \vec r + G \cdot \vec g - B \cdot \vec b</math><br />
<br />
=== Farbreizmetrik ===<br />
* Die Farbreizfunktion <math> \varphi_\lambda</math> beschreibt die spektrale Zusammensetzung der Farbempfindungen<br />
*# Selbstleuchtende Objekte<br />
*#* <math> S_\lambda (\lambda)</math> beschreibt die spektrale Verteilung der Quelle<br />
*#* Wahrnehmung: <math> \varphi_\lambda = S_\lambda</math><br />
*# Auflicht Vorlagen<br />
*#* <math>\beta_\lambda(\lambda)</math> beschreibt den spektralen Remisionsgrad der Vorlage<br />
*#* Wahrnehmung: Licht reflektiert von der Vorlage <math> \varphi_\lambda = S_\lambda \cdot \beta_\lambda</math><br />
*# Durchlichtvorlagen<br />
*#* <math>\tau_\lambda(\lambda)</math> spektraler Transmissionsgrad der Vorlage<br />
*#* Wahrnehmung von Licht welches die Vorlage durchdrungen hat <math>\varphi_\lambda= S_\lambda \cdot \tau_\lambda</math><br />
* Damit haben folgende Faktoren Auswirkung auf die Wahrgenommene Farbe<br />
*# Die Beleuchtung des Objektes (Spektrale Zusammensetzung des Lichtes der Lampe)<br />
*# Das Remmisionsverhalten der beleuchteten Oberfläche<br />
*# Die wellenlängenabhängige Empfindlichkeit der drei Zapfen des Auges<br />
* Es besteht die Möglichkeit die pdt Kurven direkt zur Beschreibung des Farbempfindens zu nutzen<br />
* Die Farbwerte könnte man dann wie folgt ermitteln: <math> \left(\begin{matrix}P\\D\\T\end{matrix}\right)=k\int_{380\mathit{nm}}^{780\mathit{nm}}\varphi (\lambda )\cdot \left(\begin{matrix}p(\lambda )\\d(\lambda )\\t(\lambda )\end{matrix}\right)d\lambda </math><br />
* Für die technische Darstellung von Farbe werden allerdings R,G,B werte benötigt<br />
* Die dafür notwendigen Spektralwertkurven können mit Hilfe der Vergleichsmethode ermittelt werden<br />
* Man erhält damit folgende Kurven<br />
[[Datei:SpektralwertfunktionenRGB.jpg]]<br />
* Mit der gleichen Formel wie bei der pdt Kurve lassen sich nun die R,G,B Werte rechnerisch ermitteln<br />
<br />
== Farbanalyse, Zusammenhang mit der Farbwidergabe ==<br />
* Das Kammera - Monitor System soll die Farbe exakt wiedergeben<br />
* Der Monitor verwendet EBU Phosphore für die Farbdarstellung<br />
** haben selbst Spektralwert kurven => keine Monochromatischen Lichter mehr<br />
* Die notwendigen spektralwertkurven die die Kamera realisieren muss um die Bilder auf dem Monitor exakt darzustellen lassen sich mit Hilfe der pdt Kurven herleiten (Über forderung der Gleicheit der Farben)<br />
* Sie besitzen stark negative Anteile => Auch die Filter der Kamera müssten negative Transsmissionsgrade besitzen<br />
** technisch ist das nicht möglich<br />
* es bleibt also nur die Möglichkeit die notwendigen Parameter zur Ansteuerung des Monitors aus positive one-peak Kurven zu berechnen<br />
<br />
== Subtraktive Farbmischung ==<br />
* Die Subtraktive Farbmischung lässt sich auf die Multiplikation der Transmissionsgrade zurückführen (ein Filter lässt 50% rotes licht durch, wenn man zwei dieser Filter hintereinander legt, dann geht nur noch 25% rotes Licht durch die Anordnung (0.5*0.5 = 0.25) )<br />
* wenn <math> \tau_0 </math> die Transmission eines Filters für die normierte Dicke 1 und die normiert Dichte 1 ist dann kann man<br />
** mit dem Lambertschen Absorbtionsgesetzt die Absortption von dickern/düneren Material berechnen <br> <math> \tau = [ \tau_0]^w </math><br />
*** w ... Dicke des Materials im Verhältnis zum norm Material<br />
** mit dem Beerschen Gesetz die Transmission von Meterial mit anderer Dichte berechnen <br><math> \tau = [ \tau_0]^c </math><br />
*** c... Das Verhältnis der neuen zur alten Dichte<br />
** kann man auch kombinieren zu (Lambert-Beersches Gesetz)<br />
** <math> \tau = [ \tau_0]^{c \cdot w} </math><br />
* Da sich die Transmission Multiplikativ zusammensetzt wird auch gerne mit dem logarithmus der Transmission gerechnet (optische Dichte)<br />
**<math> D = - lg \tau = lg \frac{1}{\tau}</math><br />
** Damit vereinfacht sich das Lambert-Beersche gesetz zu: <math> D = c \cdot w \cdot D_0</math><br />
* selbstverständlich sind die Transmission <math>\tau</math> und die optische Dichte D von der Wellenlänge abhänig ... zur Übersichtlichkeit wurde das in den Formeln nur weggelassen<br />
* Bei einem Papierbild kommt zu dem Filter noch die Reflexion an der Farboberfläche und an der Papieroberfläche<br />
** Beachte das Licht was an der erste Schicht wegreflektiert wird kann icht tiefer eindringen. Nur noch <math> (1-\beta)*S </math> dringt an Licht durch den ersten Filter!<br />
*** <math> \beta </math> ... Remmisionsgrad der ersten Farbe<br />
*** <math> S </math> ... Spektrale Verteilung der Lichtquelle<br />
<br />
= Farbmetrische Schnittstellen - Farbräume (GF a 49 - 55) =<br />
<br />
<pre><br />
Unterschiedliche bildgebende Systeme<br />
z.B. Farbkameras<br />
Farbscanner<br />
Spezialkameras<br />
</pre><br />
'''Widerspruch''' <math>\updownarrow</math> Farbmetrische Schnittstelle<br />
<pre><br />
Unterschiedliche Bildwiedergabesysteme<br />
"True-Color-Darstellung"<br />
- unterschiedliche Monitore, Beamer, Drucker etc.<br />
</pre><br />
<br />
== Leuchtdichte (Luminanz) ==<br />
<br />
* Luminanz Y ist die Strahlungsleistung, bewertet mit der spektralen Empfindlichkeitsfunktion des Auges für das Hellempfinden<br />
* Y ist Leistungsproportional, wenn Lichtzusammensetzung (Leistungsdichte <math>\Theta (\lambda))</math> konstant bleibt<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* Leuchtdichte berechnet sich nach dem ''Abneyschen Gesetz'':<br />
: <math> Y = L = k \cdot \underline L^T \cdot \underline F </math><br />
:* <math>\underline L^T - </math> Leuchtdichtebeiwert: gibt an wie groß der Beitrag jedes Farbwertes der Farbvalenz zum Helleindruck ist, abhängig vom gewählten Farbwiedergabesystem<br />
* Leuchtdichte L <math>\ne</math> Intensität I<br />
: <math> I = \frac 1 3 (R+G+B)</math><br />
<br />
* die perzeptuelle Antwort unseres Auges auf die Leuchtdichte wird Helligkeit (Lightness) genannt<br />
: <math><br />
L^{\star} = \begin{cases}<br />
116 \cdot \sqrt [3] {\frac Y {Y_n}} -16, & \text{wenn } \frac Y {Y_n} > 0{,}008856\\<br />
903{,}3 \cdot {\frac Y {Y_n}}, & \text{wenn } \frac Y {Y_n} \le 0{,}008856<br />
\end{cases}<br />
</math><br />
<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: Eine Quelle die nur 18% der Luminanz einer Referenz hat, erscheint uns immer noch halb so hell wie die Referenz </span><br />
<br />
== Gammakorrektur und Luma ==<br />
* '''Gammakorrektur:'''<br />
** Aufgrund der Ansteuerung von CRT Monitoren und der verwendeten Phosphore ergibt sich ungefähr eine quadratische Abhängigkeit der Luminanz vom Videosignal<br />
** Die Luminaz der drein einzelnen Farbkanäle muss den gleichen Verlauf aufweisen. Sie dürfen sich nur in ihren Maximalwerten unterscheiden!<br />
*** Sonst ist es nicht möglich die Helligkeit zu ändern und dabei die Farbe konstant zu halten<br />
** Die Gammakorrektur sorgt dafür das die Farbwiedergabe auf dem Monitor linear verläuft und nicht quadratisch<br />
*** Notwendig damit wir die gleich Wahrnehmung erzielen können als währe das Kamera-Monitor System nicht vorhanden<br />
<br />
*'''Luma:'''<br />
** Luma ist die gewichtete Summe der drei Gammakorregierten Farbwerte R',G',B'<br />
** Damit ist Luma nicht gleich Luminanz<br />
<br />
*'''Brightness'''<br />
** Brightness ist ein Begriff der beschreibt wie stark eine Fläche Licht emmitiert oder sie hell sie erscheint<br />
** Besitzt kein festes Maß und wird daher sehr frei verwendet -> HSL<br />
<br />
== Farbsysteme, Farbräume, reduzierte Farbräume ==<br />
* Die Intensität einer Farbe ist <math> I = \frac{R + G +B}{3} </math><br />
* Wählt man die Intensität konstant mit <math>I=\frac{1}{3}</math> so ergibt sich eine Ebene die den RGB-Farb Würfel Diagonal schneidet und durch die R,G,B Eckpunkte geht<br />
* Jede Farbkoordinate kann auf diese Ebene projeziert werden -> Ermöglicht die Nutzung dieser Ebene als einfache Farbtafel<br />
** Diese Ebene kann dann noch auf die 0RG- Fläche des RGB Würfels projeziert werden ohne das die Ordnung der Farben gestört werden würde -> Der Farbton einer Farbe lässt sich allein durch r und g beschreiben<br />
* in die rg-Ebene können nun alle in RGB - darstellbaren Farben und alles existierenden Farben eingetragen werden<br />
** Danach erkennt man das sich technisch mit dem RGB-System nur ein kleiner Teil der exisiterenden Farben realisieren lässt<br />
<br />
= Das Normvalenz- oder XYZ-System (GF a 76 - 86) =<br />
* Alle Farbwerte sollen durch positive Farbwerte darstellbar sein<br />
** Für Farbmessung von Interesse<br />
** Das XYZ- Dreieck muss den spektralen Kurvenzug voll umschließen<br />
* Eine weitere Forderung ist das die Leuchtdichte als unabhängige Komponete auftreten soll<br />
* Die Fläche des Dreiecks soll so klein wie möglich sein<br />
* Die dadurch berechnbaren Normalvalenzen sind physikalisch nicht erzeugbar -> Die Spektralwertkurven für das System müssen berechnet werden<br />
** Die Berechneten Spektralwertkurven sind stets nichtnegativ -> immer positive Transmissionsgrade und Sensorempfindlichkeiten<br />
[[Bild:NORMXYZ1.JPG]]<br />
* Mit dem XYZ-System kann man nun Farbdreiecke vergleichen und Bewerten<br />
** Abstände, Fehler und Systemeigenschaften sollten aber in einem empfindungsmäßig gleichabständigen Farbraum bewertet werden (u'v'w' und CIELab)<br />
* '''Optimalfarbkörper'''<br />
** Beschreibt die Grenze aller darstellbaren Körperfarben<br />
** Zur Erstellung schneidet man rechteckförmige Stückchen aus dem Spektrum von Idealweißem Licht aus<br />
<br />
== Das UVW-System ==<br />
* Informationsgehalt der Farbe für den Menschen hängt davon ab welche Farbunterschiede er wahrnehmen kann<br />
* Vor allem ist das interessant wenn Bildverarbeitungsprobleme auf der menschlichen Wahrnehmung formuliert sind<br />
* xy-Farbtafel hat starke Unterschiede zwischen örtlichen Abstenden und empfindungsmäßigen Abständen -> ungeeignet<br />
* erste Lösung<br />
** lineare Transformation<br />
** W' -> Helligkeit<br />
** U' -> Rot-Grün Bundheit<br />
** V' -> Gelb-Blau Bundheit<br />
** Ergebnis<br />
*** Wesentlich besseres Darstellung der Empfindung (Faktor 10 gegenüber dem XYZ-System)<br />
* verbesserte Lösung<br />
** verwenden einer nicht linearen Abbildung (Auge wird mit berücksichtigt)<br />
<br />
== L*a*b* oder CIELAB-Raum ==<br />
* Gegenfarbmodell<br />
* empfindungsmäßig gleichabständiger Raum<br />
* Grundsätzlich zur Angabe von Farbabweichungen verwendet<br />
** Geeignet zur Bewertung von Druckern, Monitoren und Abweichungen von Nachfärbungen<br />
* als Farbdifferenzmaß wird der euklidische Abstand benutzt (<1 nicht mehr Wahrnehmbar)<br />
<br />
== L*u*v* oder CIELUV ==<br />
* für additive Mischung vorgesehen<br />
* wie der CIELAB- Raum ein empfindungsmäßiger gleichabständiger Raum<br />
<br />
== YCbCr - Crominanzwertsystem ==<br />
* Entwickelt damit Farbfernsehen und S/W-Fernsehen Parallel betrieben werden konnten<br />
* Crominanzwerte<br />
** sind von Leuchtdichte befreite Werte<br />
** verschwinden für alle unbunten Farben<br />
** Cr= R-Y, Cg = G-Y, Cb = B-Y<br />
** Das System aus CrCbCg und Y ist überbestimmt => Es reicht die Übetragung von Cr , Cb und Y<br />
* Da das Auge auf Helligkeitsunterschiede empfindlicher reagiert als auf Farbunterschiede können die Crominanzwerte mit geringerer Auflösung übertragen werden<br />
<br />
== ΘSY - System ==<br />
* Der Bunttonwinkel Θ berechnet sich aus dem Verhältnis der Crominanzwerte Cb und Cr<br />
* Die Sättigung S ist der Betrag des Vektors CrCb<br />
<br />
== HSI - Farbraum ==<br />
* Intensität: <math> I= \frac{R+G+B}{3} </math><br />
* Sättigung: <math> S = 1 - 3 \cdot min (r,g,b) </math><br />
* Hue: <math> H= \left\{ \begin{matrix}\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B\le G \\ 2\pi -\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B>G \end{matrix}\right . </math><br />
* Raum ist nicht gleichmäßig gefüllt<br />
* bei kleinen Intensitäten I in Buntton und Sättigung Instabil<br />
* Es kann bei Farbmanipulationen dazu führen das es keine Entsprechungen im RGB gibt<br />
** Lösungen:<br />
*** Dachförmige Begrenzung des HSI Raums -> sehr Aufwendig<br />
*** Normieren der Intensitäten -> Bild kann ins dunkle verschoben werden<br />
*** Maximalwert setzen -> Falsche Farbwerte (werden ins unbunte verschoben)<br />
*** proportionales skalieren bis Farbe im RGB-Würfel liegt<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
<br />
== HSL - Farbraum ==<br />
* Gern für Computergrafik verwendet<br />
* einfache Beziehungen<br />
* Die Verwendeten Biegriffe H,S,L entsprechen nicht der Bedeutung in der Farblehre und Form des Raumes<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
* Buntton ist extrem instabil bei kleinen Sättigungen<br />
* Form des Raumes ist unpraktisch<br />
<br />
= Farbmessung (GF 1 - 11) =<br />
<br />
* Farbmessung = Ermittlung der drei zu einer Farbvalenz gehörigen Farbmaßzahlen<br />
* 3 Messmethoden: <br />
** Vergleichsmethode oder Gleichheitsverfahren<br />
** Spektralverfahren<br />
** Dreibereichsverfahren<br />
<br />
== Gleichheitsverfahren ==<br />
<br />
* Vergleiche:<br />
** Vorlage mit additivem Gemisch<br />
** Vorlage mit Farbmusterkarten (DIN-Karten)<br />
* unverzichtbar bei physiologischen Untersuchungen<br />
* aufwendig und bei kleinen Probandengruppen ungenau<br />
* d.h. für technische Messungen ohne Bedeutung<br />
<br />
'''Messbedingungen nach DIN:'''<br />
* helladaptiertes und blendfreies Sehen<br />
* unbunter Messraum<br />
* neutrale Gesichtsfeldumgebung mit gleicher oder etwas kleinerer Leuchtdichte als im Messfeld<br />
* gut ausgeruhtes und neutral gestimmtes Auge<br />
* farbnormalsichtiger Beobachter<br />
<br />
== Spektralverfahren ==<br />
<br />
* zu messende Farbvalenz = Summe spektraler Farbvalenzen<br />
* greift auf gemessene Normspektralwertkurven zurück<br />
<br />
# '''spektrale Messung zur Ermittlung der Farbreizfunktion <math>\varphi (\lambda) </math>'''<br />
#* Selbststrahler: direkte Messung der Strahlungsfunktion <math>\rightarrow \varphi (\lambda)= S (\lambda)</math><br />
#* remittierende Vorlage: Remissionsfunktion der Vorlage messen, d.h. Strahlungsfunktion S ist vorher zu bestimmen und aus <math>\varphi (\lambda)</math> heraus zu rechnen <math>\rightarrow \varphi (\lambda)= \beta (\lambda) \cdot S (\lambda)</math><br />
# '''farbvalenzmetrische Auswertung'''<br />
#* wenn <math>\beta (\lambda)</math> ermittelt wurde, kann jede beliebige (tabellierte) Lichtquelle <math>S^{\ast} (\lambda)</math>eingesetzt werden<br />
#: <math><br />
\begin{bmatrix}<br />
X\\Y\\Z<br />
\end{bmatrix}<br />
= k \cdot<br />
\begin{bmatrix}<br />
\int \bar{x} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{y} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{z} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda<br />
\end{bmatrix}<br />
</math><br />
#* Normierungskonstante k:<br />
#** Selbststrahler: nur Farbwertanteile gefragt, d.h. k ist beliebig<br />
#** Körperfarben: Y für mattweißen Körper = 100, d.h. <math>k=\frac{100}{\int {S(\lambda) \cdot \bar{y}(\lambda) d \lambda}}</math><br />
<br />
'''Messgeometrien:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bildergalerie (45°,8°,Transmission) </span><br />
<br />
* ''45°-Geometrie'': Beleuchtung unter 45° schließt Glanzeinfluss aus <math>\rightarrow</math> Sensor blickt senkrecht auf Probe<br />
* ''8°-Geometrie'': Beleuchtung diffus über Ulbricht-Kugel <math>\rightarrow</math> Sensor blickt unter 8° auf Probe; Messung mit/ohne Glanz möglich<br />
* ''Transmissionsgeometrie'': Probe wird durchleuchtet<br />
<br />
== Dreibereichsverfahren ==<br />
* die drei Farbwerte werden direkt photometrisch gemessen<br />
* Filter und spektrale Empfindlichkeite der Strahlungsempfänger müssen an die spektrale Bewertungsfunktion angepasst sein<br />
* '''Luther-Bedingung:''' <math> \tau_x(\lambda) = \frac{c_x \cdot x(\lambda)}{s_1(\lambda)}</math><br />
** <math> \tau_x(\lambda) </math> ... Filtertransmission<br />
** <math>s_1(\lambda)</math> ... Sensorempfindlichkeit (hier im ersten Kanal)<br />
** <math>c_x</math> ... Gerätekonstante<br />
** Für den Y und Z Kanal ist die Formel analog<br />
* Der notwendige Filter kann gut durch ein Set von Schmalbandigen Filtern realisiert werden<br />
<br />
== Spektralmaskenverfahren ==<br />
<br />
* spezielles Dreibereichsverfahren<br />
* Lichtzerlegung erfolgt mit einem Prisma<br />
* Das zerlegte Lich beleuchtet eine Maske (Papier, Plaste, Metal .... ne richtige echte Maske)<br />
* Messen der spektralen Verteilung (CCD-Zeile)<br />
* Ähnlich dem Spektralverfahren nur das das spektrum bereits im analogen entsprechend gewichtet wird<br />
<br />
== Metamerie ==<br />
* zwei Farbproben die bei einer bestimmten Beleuchtung gleich aussehen können bei einer anderen Beleuchtung ganz anderst aussehen<br />
* Der Metermarie-Index beschreibt diesen durch Beleuchtungswechsel entstehenden Farbwechsel<br />
* KEIN Maß für die Farbkonstantheit sondern für den Unterschied von zwei Proben<br />
* Berechnung erfolgt im L*a*b* Raum <br> <math> M_T = \sqrt {(L_{1T}-L_{2T}+L_{2B}-L_{1B})^2 +(a_{1T}-a_{2T}+a_{2B}-a_{1B})^2+(b_{1T}-b_{2T}+b_{2B}-b_{1B})^2 } </math><br />
** T ... Testlicht<br />
** B ... Bezugslicht<br />
** 1,2 ... Probennummern<br />
<br />
= Klassifikation von Messaufgaben (GF 82 - 86) =<br />
<br />
# Messung von objektiven Eigenschaften, die sich in der Veränderung spektraler Charakteristika niederschlagen<br />
#* vordergründig ist Zusammenhang zwischen Veränderungen in den physikalischen Eigenschaften von Interesse (z.B. Waferinspektion)<br />
#* Zusammenhang sollte eindeutig und von hinreichender Empfindlichkeit sein<br />
#* Wahrnehmung unterschiedlicher Farben eher Nebeneffekt<br />
# Überwachung der Stabilität von farblichen Erscheinungen<br />
#* ist bei einer oder mehreren Beleuchtungen zu überwachen<br />
#* absolute Farbmessung nicht nötig; "Anlernen" auf Farben genügt<br />
#* Abstände im Farbempfinden müssen sich in gleicher Weise in Veränderungen der Sensorsignale wiederspiegeln<br />
# absolute Farbmessung<br />
#* d.h. Ermittlung der korrekten Farbvalenz unter beliebigen Messbedingungen<br />
#* Spektralwertkurven müssen realisiert werden<br />
# Messung des spektralen Remissions- und/oder Transmissionsverhaltens von Materialien<br />
#* ausschließlich spektrale Messverfahren<br />
#* Messung der Strahlungsfunktion und der remittierten Leistungsdichte<br />
#* Berechnung der Farbvalenz bei beliebiger Beleuchtung und des Metamerie-Index<br />
<br />
'''steigende Ansprüche mit steigender Nummerierung'''<br />
<br />
= Einfache Farbkalibrierung (GF 16 - 41) =<br />
* Farben sollen möglichst exakt Wiedergegeben werden<br />
<br />
== Ausgleich von Beleuchtungseinflüssen ==<br />
* Körperfarben werden durch ihre Remmision bestimmt <math> \beta </math><br />
* Bei unterschiedlicher Beleuchtung sehen Farben unterschiedlich aus aber das Auge kann sich an die Beleuchtung adaptieren<br />
** Funktioniert bei Fotos aber nicht -> Beleuchtungsausgleich ist wichtig<br />
** Bei Farbvergleich noch viel mehr<br />
** Wird realisiert durch Weißabgleich (auf integraler Farbebene nicht möglich )<br />
* Direkte Vermessung der spektralen Eingenschaften der Kamera nicht möglich (Da Werte in Kamera bereits verrechnet werden um z.B. die negativen Anteile der Spektralkurven zu realisieren)<br />
** sehr Aufwendig (Kamera auseinanderbasteln um an die echten werte zu kommen + das durchgehen durch das Spektrum in kleinen Schritten)<br />
* Daher Verwendung von Testfarben<br />
** Führt auf Lösung eines linearen Gleichungssystem<br />
** Für menschliches empfinden -> Optimieren im CIELAB-Raum<br />
* Vorsicht bei nichtlinearen Funktionen zur Farbkalibrierung -> Kann bei zu wenig Testfarben zu total falschen Ergebnissen führen !!<br />
<br />
= Color Management (F CM 1 - 20) =<br />
* verschiedene Geräte können verschiedenen Farben darstellen<br />
* verschiedene Geräte verwenden andere Grundfarben zum mischen<br />
* Mit Hilfe von Profilen (Tabellierung der Farbwerteumrechnungen) wird eine Konvertierung der Farben vom Geräteraum in den CIELab Raum bzw umgekehrt durchgeführt<br />
* in den Profilen wird auch vermerkt welche Farben darstellbar sind und welche nicht<br />
* Somit kann man eine "Druckvorschau" auch auf einem Monitor erreichen (natürlich nur für Farben die auf beiden Geräten dargestellt werden können)<br />
** Jedes Mapping der Farben (Gamut-Mapping stellt somit einen Kompromiss dar)<br />
**# Perceptual (Die Farbbeziehungen untereinander werden erhalten) Komprimierung des Gamuts bis er in den zur Darstellung verwendeten passt<br />
**# Colometrisch -> Exakte Reproduktion aller in beiden Gamuts darstellbaren Farben<br />
**## relativ -> weiß wird auf weiß abgebildet und alle anderen Farben relativ dazu<br />
**## absoult farbmetrisch<br />
**# Saturation, alle Farben außerhalb des Zielgamuts werden zugunsten der Sättiung verändert<br />
* Kalibrierung -> Versetzen des Gerätes in einen definierten, reproduzierbaren Zustand<br />
* Charakterisierung -> Modellierung eines Gerätes welches sich ein einem stabilen definierten Zustand befindet<br />
<br />
= Kameras (GF_Ka 1 - 12) =<br />
<br />
'''Einsatzfelder:'''<br />
* ortsaufgelöste Messung von Farbe<br />
* Aufnahme und Wiedergabe von True-Color Bildern<br />
* Aufnahme farbiger oder mehrkanaliger Bilder für die Verarbeitung/Analyse (Qualitätssicherung)<br />
* Photogrammetrische Anwendungen (Lösung des Korrespondenzproblems)<br />
* Radiometrische Anwendungen (Messen im Spektralbereich)<br />
<br />
'''Dreibereichsmessung:'''<br />
* setzt die Trennung von drei sich überlappenden Spektralbereichen voraus, die dann wellenlängenabhängig zu bewerten und zu integrieren sind<br />
<br />
== Dreichip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* optische Kanaltrennung und Bewertung<br />
* beste Bildqualität, da hohe Auflösung in allen drei Kanälen<br />
* keinen örtlichen Versatz der Pixel in den drei Farbauszügen<br />
* Filter einfacher und präziser zu realisieren<br />
* befinden sich z.B. als dichroitische Spiegel auf den Strahteilerprismen<br />
<br />
<span style="color:#ee0000;"> \\ Hot-Mirror-, Cold-Mirror-Korrektur????</span><br />
<br />
== Einchip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: doppelte Anzahl grüner Pixel wegen Schärfe, MTF des Auges </span><br />
<br />
* örtliche Kanaltrennung und Bewertung<br />
* Streifen- oder Mosaikfilterstrukturen auf den einzelnen Pixeln zur örtlichen Signaltrennung<br />
* 3 oder 4 unterschiedliche spektrale Auszuüge zur Erzeugung der Farbinformation<br />
* Matrix selbst kann Interline- oder Frame-Transfer-Matrix sein<br />
* kostengünstiger und kleiner als Dreichip-Kameras<br />
* Probleme:<br />
** Farbvalenzen aus örtlich versetzten Auszügen (z.B. Farbsäume an Kanten)<br />
** nicht korrigierbare Fehler aus Nichtlinearitäten und Dunkelsignalen bei der Bildung von Mischsignalen<br />
<br />
'''generelle Anforderungen an die Signalverarbeitung:'''<br />
<br />
* primäre Kamerasignale stellen keine farbmetrische Schnittstelle zur Verfügung, d.h. alle Bewertungsfunktionen sind nicht-negativ (Spektralwertkurven fordern aber negative Wichtungen)<br />
* je nach realisierten Filtern und Genauigkeitsansprüchen <math>\rightarrow</math> lineare Matrizierung (meist Kameraintern) oder komplexere Approximation<br />
* bei hohen Genauigkeitsansprüchen <math>\rightarrow</math> Umgehung der Kamerainternen Matrizierung, weil Verstärkungsfaktoren, Toleranzen, Temperaturdrift, Langzeitstabilität etc. nicht bekannt sind<br />
* insgesamt geringe Nichtlinearitäten der CCD's können in den Ansteuerbereichen der einzelnen Kanäle zu wesentlichen Fehlern führen:<br />
** Farbvalenz ändert sich kontinuirlich mit der Shutterzeit<br />
** Pixelweise DSNU- (Dunkelsignalungleichförmigkeit) und PRNU- (Hellsignalungleichförmigkeit) Korrektur vor Erzeugung der Farbvalenz erforderlich, da sich Festmusterrauschen nicht nur auf Intensität sondern auch auf Farbart auswirkt<br />
** Dunkelsignal verdoppelt sich alle 7K, Gleichanteil wird aber geklemmt<br />
** Lichtquellentyp und Langzeitverhalten wirken sich nicht nur Intensität sondern auch auf Farbtemperatur aus<br />
<br />
'''4 spektrale Bereiche:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* vorteilhaft zur Erzeugung von Farbdifferenzsignalen für die TV-Kompatibilität<br />
* im Field-Integration-Mode werden Mischsignale gebildet, die die erforderliche Signalkorrektur für hohe Ansprüche behindern<br />
* Nichtlinearität der Ausgangsverstärker wirkt sich auf Korrektur der primären Mischsignale aus<br />
<br />
== Sequentielle Einchip-Kamera ==<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* zeitliche Kanaltrennung und Bewertung<br />
* relativ genaue Approximation der Spektralwertkurven möglich<br />
<br />
== Elektrisch steuerbare Filter ==<br />
<br />
* über die Wellenlängenabhängigkeit der Eindringtiefe der Photonen und die Steuerbarkeit der Tiefe der Potentialmulden der sensoren lassen sich steuerbare spektrale Empfindlichkeiten erzeugen<br />
<br />
= Verarbeitung von Farbbildern (1 - 31) =<br />
* Das unabhängige verarbeiten der Farbkanäle eines Farbbildes führt zu Nebeneffekten wie Farbsäume<br />
* Die höhere Vielfalt des mehrdimensionalen Raumes von Farbbildern kann Vorteilhaft genutzt werden für Pixelklassifikation, Segmentierung <br />
* Abstände, Mittlere Werte und örtliche Veränderungen sind in empfindungsmäßig gleichabständigen Räumen zu definieren und zu bewerden<br />
<br />
== Histogramme und Statistiken für Farbbilder ==<br />
* Farbbilder liefern dreidimensionale Häufigkeitsverteilungen im Farbraum → können als Approximation der entsprechenden 3D-Dichten verwendet werden<br />
* statistische Zusammenhänge zwischen den Kanälen werden in mehrdimensionalen Dichten betrachtet<br />
** Für Handauswertung meist nur 2D-Dichten, wegen der Übersicht<br />
** Für maschinelle Auswertung können diese dichten auch dreidimensional werden<br />
** für die parametrische Darstellung der Cluster werden meist multivariante Gaußverteilungen eingesetzt<br />
*** Einr Gaußverteilung ist für die Beschreibung eines Bildes mit mehreren Objekten nicht geeignet<br />
*** Die Kovarianzmatrix einer solchen "Approximation" kann aber gut zur Einschätzung der Streuung und der Mittelwerte in dem Bild eingesetzt werden<br />
<br />
=== Histogramm - Modifikationen ===<br />
* Contrast Streching, Polygonal Image Scaling, Histogram-Equalisation Siehe [[Grundlagen der Bildverarbeitung und Mustererkennung#homogene Punktoperationen|Grundlagen der Bildverarbeitung]]<br />
* Manipulation kann in verschiedenen Farbräumen ausgeführt werden (RGB,HSI,...)<br />
** In nicht empfindungsmäßig gleichabständigen Räumen muss die Transformation nicht unbedingt zum Ziel führen<br />
==== Manipulation im Farbraum RGB ====<br />
* ist der Farbraum in dem die Daten häufig vorliegen<br />
* Wirkung kann auf Grund der starken korrelation der RGB Werte bei geringen Sättigungen ausbleiben<br />
* Farbverfälschung wenn einzelne Kompontenen unabhänig von einander behandelt werden<br />
* hohes apriori-Wissen notwendig<br />
* wenn Falschfarbdarstellung gewünscht ist kann dies das mittel der Wahl sein<br />
<br />
==== Manipulationen im Farbraum HSI ====<br />
* unproblematisch in Bezug auf Farbverfälschungen<br />
* Zielsetzungen können sich einfacher beschreiben lassen (ähnelt der Beschreibung von Farbe durch den Menschen)<br />
* unabhängige Komponente (Intensität)<br />
* Kontrastverbesserung durch Sättigungsausgleich ohne Farbveränderung möglich<br />
* Stabilitätsprobleme nahe den unbunten Farben<br />
# '''Ausgleich des Intensitätshistogramms'''<br />
#* Werte möglich die keine entsprechung mehr im RGB haben → müssen geeignet herruntergerechnet werden<br />
#* bei kleinen Intensitäten sind die Bunttöne instabil → ausschließen von Veränderungen<br />
# '''Sättigungsausgleich'''<br />
#* Modifikation der Sättigung unter Beibehaltung des Bunttones<br />
#* Bei kleinen Sättigungen und kleinen Intensitäten ist der Buntton instabil → Ausschließen<br />
#* Histogramm über alle Bunttöne ist häufig verschmiert → besser Histogramm über Buntton Segmente<br />
# '''Bunttonausgleich'''<br />
#* Ziel sind Farbfalschbilder um Objekte besser unterscheiden zu können<br />
#* bei zu großen Buntton Änderungen wird die Interpretierbarkeit nur bei homogenen Flächen verbessert, meist wird sie eher verschlechtert<br />
#* Unsicherheit des Bunttons → bei geringen Sättigungen und Intensitäten ist der Buntton auszuschließen<br />
<br />
== segmentgesteuerte Farbvalenztransformationen ==<br />
* Globale Statistiken werden häufig durch nicht interressante Objekte dominiert<br />
* Ausweg ist das Betrachten von Ausschnitten und anwenden der Transformationen auf die Ausschnitte<br />
* erfordert zu erst das Segmentieren des Bildes<br />
<br />
= Referenzfreie Farbadaption auf Basis des 3D-Histogramms (HuS 32 - 39 ) =<br />
* unter bestimmten umständen kann auf eine Kalibrierung der Kamera mittels Referenzfarben verzichtet werden<br />
* Zur Korrektur soll die parametrische Approximation der 3D-Histogramme durch multivariante Gaußverteilungen genutzt werden<br />
== Vorraussetzungen für die Anwendbarkeit ==<br />
* Strukturierte Szene mit mehreren ntürlichen Objekten, die gleichmäßig über den Bunttonwinkel verteilt sind und durchschnittlichen Sättigungsgrad aufweisen<br />
* Langgestreckter SW-Prozess im Vergleich zum Rot-Grün und Blau-Gelb Prozess<br />
<br />
== Vorgehensweise ==<br />
* Korregieren von "vermutlichen" Abweichungen des Bildes in der Unbuntheitsachse<br />
* Dazu Ermitteln der Hauptachsen mit PCA<br />
* Drehen der Hauptachse in den SW-Prozess<br />
* Rücktransformation und Darstellung<br />
<br />
= Histogrammbasiertes Farbmatching(1 - 15) =<br />
* Histogramme sind im 2D Bild invariant gegenüber Rotation, Translation und Maßstab (wenn die Angaben relativ erfolgen !)<br />
* Histogramme sind auch relativ stabil gegenüber moderaten Verdeckungen und 3D-Rotation<br />
* Grobe Quantisierung der Histogramme um Fehlertoleranz zu erhöhen<br />
* Damit können Histogramme zur Objekterkennung eingesetzt werden → Bezeichnet als Color Indexing<br />
<br />
== uniformes Binning ==<br />
* einteilen der Farben in ein gleichverteiltes Histogramm<br />
* Suche in einem Bild den Ausschnitt welcher eine minimale Distanz zum Referenzbild hat<br />
* Als Abstandsmaß verwendet werden die Histogramme genutzt<br />
** Summe der Quadratischen Differenzen (Histogramme als Vektoren betrachtet und dann den euklidischen Abstand berechnet ohne Wurzel)<br />
** Earth Movers Distance (Berechnen was sich wohinverteilt haben könnte ... erfordert die Lösung des Transportproblems)<br />
* einfach aber die Bins ändern sich Sprunghaft, vor allem dann wenn Farben knapp an den willkürlichen Bingrenzen liegen<br />
<br />
== Unscharfe Chroma-Orts-Histogramme ==<br />
* Nachteile des uniformen Binning sollen überwunden werden<br />
* Alle Pixel bekommen eine unscharfe Klassenzugehörigkeit (Binnzugehörigkeit) je nach Abstand zum entsprechenden Binnmittelpunkt (wie bei [[Softcomputing|Fuzzy-C-Means]])<br />
** Ein Parameter ermöglicht dabei die Verunschärfung einzustellen (von total unscharf bis zum festen Binning)<br />
* Auch der absolute Ort der Segmente (aus denen die Histogramme erstellt werden) soll mit verwendet werden<br />
** Dazu wird das Bild in entsprechende Bereiche geteilt (8x8,16x16,...)<br />
** Alle Blöcke werden durchnnummeriert<br />
** Auch hier kommt es zu harten Umbrüchen wenn Pixel knapp an den Grenzen liegen → auch hier verunschärfen<br />
** Welche Indizees haben die Nachbarn? (Nachbarschaft in den Indizees der Blöcke heißt nicht gleich 2D-Nachbarschaft)<br />
<br />
== Cluster mittels Graphenansatz ==<br />
* Ziel ist es:<br />
** Sprunghafte Änderung der Binns zu verhindern<br />
** wenige Merkmale zu verwenden<br />
** Eng beieinander liegende Maxima trotzdem unterscheiden zu können<br />
* Verwendete Bilddaten:<br />
** Farbwinkelhistogramm, wenn Sättigung der Farben ausreichend ist<br />
** Intensitätsdiagramm, wenn Sättigung der Farben zu gering wird<br />
* Vorgehen:<br />
** Jeder Wert im Histogramm zeigt auf den Größten in seiner Nachbarschaft<br />
** Das Maximum zeigt auf sich selbst → Wird Merkmal<br />
** Weiteres Merkmal ist die Fläche die zum Maximum gehört (Nachbarn die direkt bzw. indirekt auf das entsprechende Maximum zeigen)<br />
* Match:<br />
** Finde ein Tupelpaar (Maxima in Referenzhistogram und Suchhistogram mit dem geringsten Abstand)<br />
** Ziehe gemeinsame Fläche von jedem Tupel des Paares ab<br />
** summiere gemeinsame Fläche (?)<br />
** Wiederhole bis sich keine Tupelpaare mehr bilden lassen<br />
** beziehe die laufende Summe auf das Maximum der Summe der ursprünglichen Flächen<br />
<br />
= Störunterdrückung (SU 1 - 16) =<br />
* Für nachfolgende Verarbeitungsschritte ist die Störunterdrückung sehr wichtig<br />
* Verschiedene verfahren der Rauschunterdrückung sind in [[Grundlagen der Bildverarbeitung und Mustererkennung#Lokale Operatoren zur Bildverbesserung (LOa 1 - 44) |BV]] eingeführt worden<br />
<br />
== Störunterdrückung durch Faltungsfilter ==<br />
* Anwendung wird einfach vektoriell durchgeführt (als würde man drei unabhängige Bilder gleichzeitig Filtern wollen)<br />
* es entstehen neue Farbtöne an den Übergängen zwischen Farben<br />
* im HSI Farbraum ist eine getrennte Betrachtung der Farbe und der Sättigung/Intensität möglich<br />
* Buntton ist zyklisch → muss bei der Mittelung beachtet werden<br />
* in der Farbe kann stärker gemittelt werden als in der Helligkeit (Auge nimmt Farbveränderungen schlechter wahr)<br />
* Komplexe Zahlen bieten sich hier als Rechenmittel an<br />
<br />
== adaptive gewichtete Mittelung ==<br />
* detailerhaltende Fähigkeiten von Filtern wegen der Farbsäume besonders von Interesse<br />
* Abstände verkomplizieren sich im Vergleich zu Grauwertbildern (Vektorabstandsmaße, Winkeldifferenzen,...) <br />
* Vorgehen nach dem Berechnen des Abstandes dann wieder Analog zur Grauwertfilterung<br />
<br />
== Medianfilterung ==<br />
* Problem bei der Übertragung des Rangordnungsgedankens auf Vektoren<br />
** Komponentenweises Vorgehen ist nicht geeignet (absolute Farbverfälschungen möglich)<br />
** Suche des besten Vertreters des SETS (wenn der verwendete Media im SET ist werden keine zu falschen Farben gewählt/gesetzt)<br />
*** kleinste Abstandssumme zu allen anderen Pixeln<br />
<br />
== Kombination von Averaging und Medianfilterung ==<br />
* Medianfilter ist gut für Impulsrauschen, schlecht bei Gauß hier ist Average gut<br />
* Bei den Filtern gibt es keinen unterschied zu den Grauwertbildern (unterschied besteht nur in der Realisierung der verwendeten Media/Average Filter nicht in ihrere Kombination)<br />
<br />
== Vektor-Richtungs-Filter ==<br />
* '''Basic Vecotr Directional Filter'''<br />
** Winkel zwischen Farbvalenzen als Distanzmaß<br />
** Ergebnis ist die Farbvalenz mit der kleinsten Winkeldifferenzsumme zu allen Valenzen des Fensters<br />
** Achromatische Rauschkomponenten werden nicht beseitigt<br />
* '''Generalized Vector Directional Filter '''<br />
** Suche nach den besten Vektoren aus Sicht der Richtung<br />
** Medianfilterung der Beträge der Vektoren<br />
* '''Directional Distance Filter'''<br />
** Vermeiden der Ineffizenz des GVDF Filters durch ein gemischtes Distanzmaß (Betrag und Winkel gleichzeitig)<br />
<br />
= Kantendetektion in Farbbildern (1 - 21) =<br />
* Wichtig für Segmentierung, Bildanalyse und Bildverstehen<br />
* [[Grundlagen der Bildverarbeitung und Mustererkennung#Kantendetektion (LK 1 - 38)| Kantenfilter]] bereits aus BV bekannt<br />
# '''Vektrogradient'''<br />
#* Berechnen der Jacobi-Matrix<br />
#* Wurzel aus dem größten Eigenwert ist der Vektorgradient<br />
#* Extrem Rechenaufwendig<br />
# '''Mittelwert der Richtungsableitungen'''<br />
#* Entspricht dem Gradienten im Intensitätsbild<br />
#* Zwei engegengesetzte Gradienten in unterschiedlichen Farben können sich gegenseitig aufheben → der Gradient der dritten Farbe dominiert egal wie klein er ist<br />
# '''Maximaler Gradient'''<br />
#* Suche nach dem Gradienten mit dem größten Betrag<br />
#* Korrelation der einzelnen Gradienten ist nicht von Bedeutung<br />
<br />
= Farbpixelklassifikation (Farbpixelklassifikation 1 - 21) =<br />
* Die Farbvalenzen bilden die Merkmale der Pixel<br />
* Anzustrebende Eigenschaften<br />
** Gute Beschreibung der Klassencluster und gute Trenneigenschaften<br />
** Einfache Belehrbarkeit (Aus Beispielen oder Expertenwissen)<br />
** Echtzeitfähigkeit<br />
** möglichst frühe Stufe der Verarbeitungskette ("Anspruchslosigkeit an das Bild")<br />
** Nutzen von Klassenzugehörigkeitsmaßen<br />
<br />
== optimaler Klassifikator ==<br />
* basiert auf dem Bayes-Theorem<br />
* findet die optimale Klassenentscheidung<br />
* Jeder Datenpunkt wird in die Klasse eingeordnet zur der er am Wahrscheinlichsten gehöhrt und bei der er die kleinsten Kosten für die anderen Klassen verursacht<br />
** Benötigt eine Risikofunktion die Angibt wie groß die Kosten bei Fehlklassifikation zwischen zwei Klassen sind<br />
*** Meist unbekannt und deswegen wird davon ausgegangen das die Kosten für jede Fehlklassifizierung gleich sind<br />
*** Kosten können durchaus auch bei richtiger Klassifikation definiert werden<br />
** Benötigt die Wahrscheinlichkeitsverteilung der Klassen im Raum (Meist unbekannt → Problem)<br />
*** können beliebig sein werden aber meist durch Gaußfunktionen approximiert<br />
*** in der Lernphase werden die Parameter dieser Verteilung geschätzt<br />
* Da Wahrscheinlichkeitsverteilung meist unbekannt ist, wird der Klassifikator ehr genutzt um einen anderen Klassifikator zu bewerten, wenn man eine bestimmt Wahrscheinlichkeitsverteilung festlegt (wie optimal ist der andere Klassifiaktor)<br />
<br />
== Maximum-Likliehood-Klassifikator ==<br />
* im Ansatz wie optimaler Klassifikator<br />
* setzten der Risikofunktion für alle Fehlklassifikationen auf einen konstanten Wert<br />
* verwenden von multivarianten Gaußdichten zur Beschreibung der Klassen<br />
* Entscheidung wird nur noch nach der a posteriori Wahrscheinlichkeit und der Klassen Verteilung gefällt<br />
<br />
== Malanobis-Abstandsklassifiaktor ==<br />
* schränkt den optimalen Klassifikator noch weiter ein im vergleich zum MLK Klassifikator<br />
* Kostenfunktion für Fehlklassifikation ist konstant für alle Fehlklassifikationen<br />
* Die a posteriorie Wahrscheinlichkeit für das auftreten der Klassen sein für alle Klassen gleich<br />
* Die Kovarianzmatrizen der Gaußverteilung der Klassen sind ähnlich<br />
* Damit ist die zuordnung zu den Klassen nur noch vom Abstand zu den Klassenzentren bestimmt<br />
** Abstandsmaß ist die Mahalanobis-Distanz<br />
<br />
== Gaußklassifikator und Kernel-Densitiy-Klassifikator ==<br />
* schränken noch weiter ein<br />
# '''Gaußklassifikator'''<br />
#* keine Kovarianzen mehr in der klassen Verteilung → Kugelförmige Klassenverteilungen<br />
# '''Kernel-Density-Klassifikator'''<br />
#* Spezialfall von Gauß-Mischverteilungen<br />
#* [... was genau der Macht frage ich in der Konsultation mal nach ... im Skript steht nix brauchbares]<br />
<br />
== LUT-Klassifikator ==<br />
* direktes Verwenden der Stichprobenhistogramme<br />
* erforder Closing im Merkmalsraum da nicht alles durch die Stichproben abgedeckt werden wird<br />
<br />
= Clusterverfahren (Farbpixelklassifikation 19 - 29) =<br />
* Ziel ist es komplexe Klassenbeschreibungen durch mehrere parametrische Einzelcluster zu approximieren<br />
* Beliebig komplexe Klassenformen lassen sich so Speichereffizient beschreiben<br />
* trotz Komplexer Beschreibung bleibt eine weiche Klassengrenze möglich<br />
<br />
== Erzeugen der Cluster ==<br />
=== Radiusrestriktionsmethode ===<br />
* keine Startpartition erforderlich<br />
* indirekte Optimierung: Zielfunktion dient nur der Bewertung der fertigen Partition<br />
* Ablauf:<br />
*# Erstes Element initialisiert das erste Cluster<br />
*# Alle Elemente werden einem Cluster zugeordnert wenn der Abstand zum Clusterzentrum unterhalb eines bestimmten Wertes liegt<br />
*# Für alle Elemente die damit ausserhalb der Cluster liegen wird ein neuer Cluster angelegt<br />
*# Wichtig ist eine gute Radiusschätzung der Cluster (Varianz der Stichprobe durch Anzahl der gewünschten Cluster)<br />
*# als Gütefunktion nutzt man die Quadratische Abweichung von den Clusterzentren<br />
<br />
=== Minimaldistanzmethode ===<br />
# Ausgangspunkt ist eine nur die Radiusrestriktionsmethode erstellte Partition<br />
# Alle Klassen Mittelpunkte werden neu Berechnet<br />
# Berechnen einer neuen Minimaldistanzpartiton anhand einer gewählten Metrik<br />
# Ein Abbruchkriterium entscheidt über das weitere vorgehen<br />
#* Kriterium für Partition ist besser geworden → mache Weiter<br />
#* Anzahl der Interationschritte überschritten → Abbruch<br />
#* Anzahl der Interationschritte noch nicht überschritten && Kriterium für Partition ist gleich geblieben → mache weiter<br />
#* Kriterium für Partition ist schlechter geworden → breche ab<br />
<br />
=== k-Means-Austauschverfahren ===<br />
# Ausgangspunkt ist eine Startpartition<br />
# Merkmalsvektoren umgruppieren wenn die distanz zu einem anderen Klassenzentrum kleiner ist als zum aktuellen<br />
# Neu berechnen der Klassenmetriken<br />
# Abbruch wenn anzahl der Interartionsschritte überschritten ist oder keine Umgrupierung mehr erfolgt<br />
* Meist eingesetzt wird die Mahalanobis-Distanz → Hypereliptische Cluster die sich wunderbar eignen langgestreckte Verteilungen zu approximieren<br />
= Trennfunktionsklassifikatoren (Farbpixelklassifikation 30 -39) =<br />
* Bei gegen Null gehenden Verteilungsdichten trangen weit entfernte Regionen keine Aussagekraft mehr → daher ist es Angebracht eine Rückweisungsklasse einzuführen<br />
<br />
== Mahalanobis ==<br />
* Verwenden der Mahalanobis-Distanz zur Klassifikation<br />
* wenn die Hauptdiagonale der Kovarianzmatrix >> als die restlichen Matrixelemente<br />
** Vereinfachung des Distanzmaßen möglich zu einem achsenparallelen Elipsoiden<br />
* wenn Streuung der einzelnen Merkmale gering ist vereinfacht sich der Ellipsoid zu einer Kugel (euklidisches Abstandsmaß)<br />
* wenn Streuung in den Klassen etwa gleich Groß ist können die Klassenspezifischen Skalierungen entfallen<br />
<br />
== Hyperquader-Klassifikation ==<br />
* Zur Zuordnung sind nur noch Intervalltests notwendig<br />
* Sehr grobe approximation der Klasse da meist elliptische Datenverteilungen auftreten<br />
* Funktioniert gut bei dekorrelierten Merkmalen → achsenparallele Ellipsen<br />
* schnell und einfach<br />
* kann eingesetzt werden um die Überlappung von Klassen zu abzuschätzen<br />
<br />
== Decision-Tree-Klassifikator ==<br />
* Verwenden einfacher Schwellen zur Abgrenzung der Klassen<br />
* Klassenbeschreibungsräume werden durch meherere Grenzen beschrieben<br />
* Effiziente Beschreibung erfolgt mit Bäumen<br />
<br />
== Linear Klassifikator → Hyperebene ==<br />
* Trennen des Merkmalsraumes mittels Hyperebene in zwei Halbräume<br />
* Separierbare Zweiklassenprobleme sind damit lösbar<br />
* Nichtlineare Klassengrenzen können stückweise lineare Aproximation mit mehreren Teilebenen gelöst werden<br />
* mittels Gradientenabstieg wird die Hyperebene angepasst<br />
* Eeiterentwicklung ist die SVM<br />
<br />
== Support Vector Machines ==<br />
* Maximierung des Abstandes der Trennebene von den Klassenrepresentanten<br />
* Transformation in einen höherdimesnionalen Raum um linear sepparieren zu können<br />
<br />
== k-Nächster-Nachbar-Klassifikator ==<br />
* Klassifikation erfolgt nach dem Abstand zum nächsten Klassenrepresentanten aus der Stichprobe<br />
* Metrik kann beliebig gewählt werden<br />
<br />
= Neuronale Klassifikatoren (Farbpixelklassifikation 40- 45) =<br />
== Multi-Layer-Perzeptron ==<br />
* entspricht der Vernküpfung mehrerer linearer Klassifikatoren <br />
* i.a. zwei Hiddenschichten mit Fermi-Ausgabefunktion<br />
* Anlernen ist aufwendig<br />
* Stabilitäts-Plastizitäts-Dilemma<br />
* Gegenbeispiele fürs Training notwendig ... meist aber nicht vorhanden → Problem<br />
* Vollständige Verkopplung der Hiddenschicht<br />
<br />
=== Modulare Netzwerke ===<br />
* wie MLP nur das die Hiddenschicht nicht vollständig verkoppelt ist<br />
* Ausbildung von Segmenten die sich auf spezielle Merkmale spezialisiert werden<br />
<br />
== RBF-Netzwerke ==<br />
* Bestehen aus Eingabe, RBF und Ausgabeschicht<br />
* Jeder RBF-Knoten hat eine Position im Merkmalsraum<br />
* Aktivierung durch Abstände im Merkmalsraum unter Berücksichtigung der RBF<br />
* Zusammensetzen der Klassenregionen<br />
<br />
== Self Organizing Feature Maps (SOFM) ==<br />
* Nur Input/Output Schicht<br />
* Abbilden eines Hochdiemesnioinalen Raumes auf einen niederdimensionalen<br />
* Ähnliche Muster werden auf benachbarte Neuronen abgebildet<br />
* Selbsständiges erkennen der Struktur der Klassen<br />
* Bestimmen des Best Matching Neurons mittels abstand<br />
* Anpassen der Gewichte erfolgt beim Training nach dem Abstand<br />
** Anfangs werden benachbarte Neuronen mit trainiert um Nachberschaft zu erhalten später dann nicht mehr<br />
<br />
= Segmentierung (Seg 1 - 8) =<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Grundlagen_der_Farbbildverarbeitung&diff=7000Grundlagen der Farbbildverarbeitung2009-03-17T13:25:19Z<p>DarkGhost: /* k-Nächster-Nachbar-Klassifikator = */</p>
<hr />
<div>Link zum [http://www.zbs-ilmenau.de/intern/vip-toolkit/index.php Vip toolkit]<br />
= Einführung (GF_a 8 - 47) =<br />
<br />
== Geschichtliches zur Farbe ==<br />
<br />
=== Newton ===<br />
<br />
* 1672: New Theory about Light and Colours<br />
** Sonnenlicht = Mischung einzelner Farben<br />
** Spektralfarben sind objektive Eigenschaft des Lichtes<br />
<br />
[...]<br />
<br />
=== Goethe ===<br />
<br />
[...]<br />
<br />
== Begriff der Farbe ==<br />
<br />
* '''Farbe im engeren Sinn, stellt eine spezielle menschliche Sinneswahrnehmung dar'''<br />
* <math>\Phi_i = \int_{\Delta \lambda_i} \varphi_{\lambda} (\lambda) d \lambda</math><br />
* Leistungsdichte <math>\phi (\lambda)</math> stellt dagegen den Farbreiz dar, der die Farbempfindung hervorruft<br />
* Vektoren <math>\underline \Phi</math> sind je nach Dimension mehr oder minder genaue Approximationen des Farbreizes<br />
<br />
* Orientierung am menschlichen visuellen System und die Betrachtung psychologischer und physiologischer Grundlagen sind von Interesse:<br />
** zur richtigen Bewertung der Schwierigkeiten und Herausforderungen bei der Schaffung technischer Lösungen<br />
** zur Anpassung technischer Lösungen der Bildwiedergabe an das visuelle System<br />
** zur Nutzung optimaler Naturprinzipien für technische Lösungen<br />
** weil technische Systeme im allgemeinen auf dem inneren Modell des Menschen von der Welt beruhen und dieses Modell in hohem Maße durch den visuellen Kanal des Menschen beeinflusst ist<br />
** weil optoelektronische Sensoren, Bildverarbeitung und Bildanalyse wichtige Schnittstellen zwischen Mensch und Maschine darstellen<br />
**weil viele Objekteigenschaften durch visuelle Eindrücke beschrieben werden<br />
<br />
* menschliches Auge kann ca. 100 Graustufen / ca. 300 000 Farben unterscheiden<br />
<br />
* Drei grundsätzliche Anwendungen von Farbinformation:<br />
** Pseudokolorierung<br />
** Falschfarbendarstellung<br />
** Echtfarbdarstellung (True Color) <math>\rarr</math> hier Schwerpunkt<br />
<br />
== Farbtäuschung ==<br />
<br />
* Zuordnung zwischen Physik und Wahrnehmung nur eindeutig wenn bunte Dinge isoliert betrachtet werden<br />
* Werden bunte Objekte in bunte Umgebungen eingebettet/bewegt, dann können abweichende Farbwahrnehmungen auftreten, so genannte Farbtäuschungen<br />
* es existieren unterschiedliche Arten solcher Täuschungen:<br />
** ''Farbinduktion oder simultaner Farbkontrast'' (Farbe wird durch ihre Umgebung modifiziert)<br />
** ''Farbkonflikt'' (es konkurrieren verschiedene Sehinformationen miteinander)<br />
** ''Subjektive Farben'' (es werden bunte Farbtöne wahrgenommen, die nicht vorliegen)<br />
<br />
'''Simultaner Farbkontrast:'''<br />
* erstmals 1839 beschrieben<br />
* wo der Effekt entsteht (Auge, Cortex) ist unklar<br />
<br />
'''Farbinduktion:'''<br />
* bei kleinteiligen, sich wiederholenden Strukturen erfolgt Angleichung<br />
* kann zur Rauschunterdrückung oder zur Unterdrückung von Feintexturen zugunsten der Erkennung größerer Objekte wichtig sein<br />
<br />
'''Farbkonflikt:'''<br />
* Formen und Strukturen konkurrieren mit Farben ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf White'sche Illusion])<br />
<br />
'''Subjektive Farben:'''<br />
* durch Bewegung ist es möglich Farben zu erzeugen die ursprünglich nicht vorhanden waren ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf Drehwurm in Farbe])<br />
<br />
== Farbwahrnehmung beim Menschen ==<br />
<br />
[...]<br />
<br />
=== Rezeptive Wahrnehmung ===<br />
* 1807 stellte Young die Hypothese auf das Farbsehen auf drei Arten von Sinneszellen beruht (rout,grün,blau)<br />
* erst 1964 konnten dies bewiesen werden, durch die Messung der Absorptionsspektren<br />
*[[Datei:Pdt-kurven.svg]]<br />
<br />
=== Postrezeptive Wahrnehmung ===<br />
* Mit dem 3 Farbenmodell konnten einige psychologische Erscheinungen nicht erklärt werden<br />
** Es werden 4 Farben als besonderst "rein" empfunden (Rto, Geln,Grün, Blau)<br />
** Unbunte Farben werden werden als das fehlen von Farben wahrgenommen<br />
** Schwarz schein gleichberechtigt zu Weiß<br />
** keine wahrgenommene Farbe erscheint zugleich rötlich und grün<br />
* das führte zur Gegenfarbentheorie die anfangs nur Psychologisch begründet war 1958 aber physiologisch Nachgewiesen werden konnte<br />
** Rot - Grün<br />
** Gelb - Blau<br />
** Schwarz - Weiß<br />
* → CIELab-Farbraum<br />
<br />
=== Kortikale Kodierung ===<br />
* Weder die 3 Farbentheorie noch die Gegenfarbentheorie beschreiben die bewusste Wahrnehmung des Menschen<br />
* Deshalb erweitertes Modell<br />
** Farbton / Buntton beschreibt die als besonderst rein empfundenen Spektralfarben<br />
** Sättigung beschreibt wie stark eine Farbe verblasst ist<br />
** Helligkeit beschreibt, wie hell oder dunkel eine Farbe ist<br />
* Wo/Wie genau die neuronale Verarbeitung erfolgt, ist noch nicht sicher belegt<br />
<br />
== Die Ordnung in der Welt der Farben ==<br />
* Newton kannte die Wellenlänge noch nicht → er ordnete die Farben nach dem Regenbogen<br />
* Goethe verwendete das Gegenfarbenmodell<br />
* Munsell schlug 1905 ein Farbordnungssystem vor bei dem alle Abstände zwischen den Farben Empfindungsmäßig gleich sind<br />
** führt zu einem geometrisch nicht regelmäßigen Körper<br />
<br />
== Das Modell der Farbe ==<br />
* '''Definition'''<br />
** Farbe ist diejenige Gesichtsempfindung eines dem Auge strukturlos erscheinenden Teils eines Gesichtsfeldes durch die sich diser Teil bei einäugiger Betrachtung mit unbewegtem Auge von einem gleichzeitig gesehenen ebenfalls strukturlos angrenzendem Bezirk allein unterscheidet (unbunte Farben: Schwarz, Weiß und Graustufen, bunte Farben: Helligkeit; Buntheit setzt sich aus Buntton und Farbsättigung zusammen)<br />
** Farbe ist durch Helligkeit, Buntton, Sättigung eindeutig bestimmt → 3D Modell<br />
*** drei linear unabhängige Größen<br />
*** Additive Mischung zur Reproduktion von Farbe (aus Rot, Grün, Blau)<br />
*** drei linearunabhängige Größen spannen immer einen Raum auf → Rot,Grün und Blau werden die Achsen dieses Raumes<br />
<br />
=== Farbvalenz ===<br />
* Mit unserem Modell läßt sich jede Farbe als linearkombination unserer drei Basisvektoren aufschreiben<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
** <math> \vec F</math> ... Farbvalenz<br />
** <math> \vec r, \vec g, \vec b </math> ... die drei Basisvektoren die den Raum aufspannen (Rot, Grün und Blau)<br />
** <math> R,G,B, |\vec F| </math> ... die Farbwerte<br />
** <math> \vec r \cdot R, \vec g \cdot G, \vec b \cdot B </math> ... die drei Primärvalenzen<br />
* Ermittelt werden die Farbwerte mit Hilfe der Vergleichsmethode<br />
** Eine Person vergleicht ein Target mit einer Farbe die aus den drei Primärvalenzen gemischt wird<br />
** wenn die Empfindung der beiden Farben gleich ist, dann notieren wir die Werte<br />
* Innere Farbmischung<br />
** das Target wird mit weißen Licht beleuchtet und wir drehen nur an dem Farbmischgerät<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
* Äußere Farbmischung<br />
** Wir beleuchten das Target mit farbigen Lichte<br />
**<math> \vec F+ B \cdot \vec b = R \cdot \vec r + G \cdot \vec g \rightarrow \vec F = R \cdot \vec r + G \cdot \vec g - B \cdot \vec b</math><br />
<br />
=== Farbreizmetrik ===<br />
* Die Farbreizfunktion <math> \varphi_\lambda</math> beschreibt die spektrale Zusammensetzung der Farbempfindungen<br />
*# Selbstleuchtende Objekte<br />
*#* <math> S_\lambda (\lambda)</math> beschreibt die spektrale Verteilung der Quelle<br />
*#* Wahrnehmung: <math> \varphi_\lambda = S_\lambda</math><br />
*# Auflicht Vorlagen<br />
*#* <math>\beta_\lambda(\lambda)</math> beschreibt den spektralen Remisionsgrad der Vorlage<br />
*#* Wahrnehmung: Licht reflektiert von der Vorlage <math> \varphi_\lambda = S_\lambda \cdot \beta_\lambda</math><br />
*# Durchlichtvorlagen<br />
*#* <math>\tau_\lambda(\lambda)</math> spektraler Transmissionsgrad der Vorlage<br />
*#* Wahrnehmung von Licht welches die Vorlage durchdrungen hat <math>\varphi_\lambda= S_\lambda \cdot \tau_\lambda</math><br />
* Damit haben folgende Faktoren Auswirkung auf die Wahrgenommene Farbe<br />
*# Die Beleuchtung des Objektes (Spektrale Zusammensetzung des Lichtes der Lampe)<br />
*# Das Remmisionsverhalten der beleuchteten Oberfläche<br />
*# Die wellenlängenabhängige Empfindlichkeit der drei Zapfen des Auges<br />
* Es besteht die Möglichkeit die pdt Kurven direkt zur Beschreibung des Farbempfindens zu nutzen<br />
* Die Farbwerte könnte man dann wie folgt ermitteln: <math> \left(\begin{matrix}P\\D\\T\end{matrix}\right)=k\int_{380\mathit{nm}}^{780\mathit{nm}}\varphi (\lambda )\cdot \left(\begin{matrix}p(\lambda )\\d(\lambda )\\t(\lambda )\end{matrix}\right)d\lambda </math><br />
* Für die technische Darstellung von Farbe werden allerdings R,G,B werte benötigt<br />
* Die dafür notwendigen Spektralwertkurven können mit Hilfe der Vergleichsmethode ermittelt werden<br />
* Man erhält damit folgende Kurven<br />
[[Datei:SpektralwertfunktionenRGB.jpg]]<br />
* Mit der gleichen Formel wie bei der pdt Kurve lassen sich nun die R,G,B Werte rechnerisch ermitteln<br />
<br />
== Farbanalyse, Zusammenhang mit der Farbwidergabe ==<br />
* Das Kammera - Monitor System soll die Farbe exakt wiedergeben<br />
* Der Monitor verwendet EBU Phosphore für die Farbdarstellung<br />
** haben selbst Spektralwert kurven => keine Monochromatischen Lichter mehr<br />
* Die notwendigen spektralwertkurven die die Kamera realisieren muss um die Bilder auf dem Monitor exakt darzustellen lassen sich mit Hilfe der pdt Kurven herleiten (Über forderung der Gleicheit der Farben)<br />
* Sie besitzen stark negative Anteile => Auch die Filter der Kamera müssten negative Transsmissionsgrade besitzen<br />
** technisch ist das nicht möglich<br />
* es bleibt also nur die Möglichkeit die notwendigen Parameter zur Ansteuerung des Monitors aus positive one-peak Kurven zu berechnen<br />
<br />
== Subtraktive Farbmischung ==<br />
* Die Subtraktive Farbmischung lässt sich auf die Multiplikation der Transmissionsgrade zurückführen (ein Filter lässt 50% rotes licht durch, wenn man zwei dieser Filter hintereinander legt, dann geht nur noch 25% rotes Licht durch die Anordnung (0.5*0.5 = 0.25) )<br />
* wenn <math> \tau_0 </math> die Transmission eines Filters für die normierte Dicke 1 und die normiert Dichte 1 ist dann kann man<br />
** mit dem Lambertschen Absorbtionsgesetzt die Absortption von dickern/düneren Material berechnen <br> <math> \tau = [ \tau_0]^w </math><br />
*** w ... Dicke des Materials im Verhältnis zum norm Material<br />
** mit dem Beerschen Gesetz die Transmission von Meterial mit anderer Dichte berechnen <br><math> \tau = [ \tau_0]^c </math><br />
*** c... Das Verhältnis der neuen zur alten Dichte<br />
** kann man auch kombinieren zu (Lambert-Beersches Gesetz)<br />
** <math> \tau = [ \tau_0]^{c \cdot w} </math><br />
* Da sich die Transmission Multiplikativ zusammensetzt wird auch gerne mit dem logarithmus der Transmission gerechnet (optische Dichte)<br />
**<math> D = - lg \tau = lg \frac{1}{\tau}</math><br />
** Damit vereinfacht sich das Lambert-Beersche gesetz zu: <math> D = c \cdot w \cdot D_0</math><br />
* selbstverständlich sind die Transmission <math>\tau</math> und die optische Dichte D von der Wellenlänge abhänig ... zur Übersichtlichkeit wurde das in den Formeln nur weggelassen<br />
* Bei einem Papierbild kommt zu dem Filter noch die Reflexion an der Farboberfläche und an der Papieroberfläche<br />
** Beachte das Licht was an der erste Schicht wegreflektiert wird kann icht tiefer eindringen. Nur noch <math> (1-\beta)*S </math> dringt an Licht durch den ersten Filter!<br />
*** <math> \beta </math> ... Remmisionsgrad der ersten Farbe<br />
*** <math> S </math> ... Spektrale Verteilung der Lichtquelle<br />
<br />
= Farbmetrische Schnittstellen - Farbräume (GF a 49 - 55) =<br />
<br />
<pre><br />
Unterschiedliche bildgebende Systeme<br />
z.B. Farbkameras<br />
Farbscanner<br />
Spezialkameras<br />
</pre><br />
'''Widerspruch''' <math>\updownarrow</math> Farbmetrische Schnittstelle<br />
<pre><br />
Unterschiedliche Bildwiedergabesysteme<br />
"True-Color-Darstellung"<br />
- unterschiedliche Monitore, Beamer, Drucker etc.<br />
</pre><br />
<br />
== Leuchtdichte (Luminanz) ==<br />
<br />
* Luminanz Y ist die Strahlungsleistung, bewertet mit der spektralen Empfindlichkeitsfunktion des Auges für das Hellempfinden<br />
* Y ist Leistungsproportional, wenn Lichtzusammensetzung (Leistungsdichte <math>\Theta (\lambda))</math> konstant bleibt<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* Leuchtdichte berechnet sich nach dem ''Abneyschen Gesetz'':<br />
: <math> Y = L = k \cdot \underline L^T \cdot \underline F </math><br />
:* <math>\underline L^T - </math> Leuchtdichtebeiwert: gibt an wie groß der Beitrag jedes Farbwertes der Farbvalenz zum Helleindruck ist, abhängig vom gewählten Farbwiedergabesystem<br />
* Leuchtdichte L <math>\ne</math> Intensität I<br />
: <math> I = \frac 1 3 (R+G+B)</math><br />
<br />
* die perzeptuelle Antwort unseres Auges auf die Leuchtdichte wird Helligkeit (Lightness) genannt<br />
: <math><br />
L^{\star} = \begin{cases}<br />
116 \cdot \sqrt [3] {\frac Y {Y_n}} -16, & \text{wenn } \frac Y {Y_n} > 0{,}008856\\<br />
903{,}3 \cdot {\frac Y {Y_n}}, & \text{wenn } \frac Y {Y_n} \le 0{,}008856<br />
\end{cases}<br />
</math><br />
<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: Eine Quelle die nur 18% der Luminanz einer Referenz hat, erscheint uns immer noch halb so hell wie die Referenz </span><br />
<br />
== Gammakorrektur und Luma ==<br />
* '''Gammakorrektur:'''<br />
** Aufgrund der Ansteuerung von CRT Monitoren und der verwendeten Phosphore ergibt sich ungefähr eine quadratische Abhängigkeit der Luminanz vom Videosignal<br />
** Die Luminaz der drein einzelnen Farbkanäle muss den gleichen Verlauf aufweisen. Sie dürfen sich nur in ihren Maximalwerten unterscheiden!<br />
*** Sonst ist es nicht möglich die Helligkeit zu ändern und dabei die Farbe konstant zu halten<br />
** Die Gammakorrektur sorgt dafür das die Farbwiedergabe auf dem Monitor linear verläuft und nicht quadratisch<br />
*** Notwendig damit wir die gleich Wahrnehmung erzielen können als währe das Kamera-Monitor System nicht vorhanden<br />
<br />
*'''Luma:'''<br />
** Luma ist die gewichtete Summe der drei Gammakorregierten Farbwerte R',G',B'<br />
** Damit ist Luma nicht gleich Luminanz<br />
<br />
*'''Brightness'''<br />
** Brightness ist ein Begriff der beschreibt wie stark eine Fläche Licht emmitiert oder sie hell sie erscheint<br />
** Besitzt kein festes Maß und wird daher sehr frei verwendet -> HSL<br />
<br />
== Farbsysteme, Farbräume, reduzierte Farbräume ==<br />
* Die Intensität einer Farbe ist <math> I = \frac{R + G +B}{3} </math><br />
* Wählt man die Intensität konstant mit <math>I=\frac{1}{3}</math> so ergibt sich eine Ebene die den RGB-Farb Würfel Diagonal schneidet und durch die R,G,B Eckpunkte geht<br />
* Jede Farbkoordinate kann auf diese Ebene projeziert werden -> Ermöglicht die Nutzung dieser Ebene als einfache Farbtafel<br />
** Diese Ebene kann dann noch auf die 0RG- Fläche des RGB Würfels projeziert werden ohne das die Ordnung der Farben gestört werden würde -> Der Farbton einer Farbe lässt sich allein durch r und g beschreiben<br />
* in die rg-Ebene können nun alle in RGB - darstellbaren Farben und alles existierenden Farben eingetragen werden<br />
** Danach erkennt man das sich technisch mit dem RGB-System nur ein kleiner Teil der exisiterenden Farben realisieren lässt<br />
<br />
= Das Normvalenz- oder XYZ-System (GF a 76 - 86) =<br />
* Alle Farbwerte sollen durch positive Farbwerte darstellbar sein<br />
** Für Farbmessung von Interesse<br />
** Das XYZ- Dreieck muss den spektralen Kurvenzug voll umschließen<br />
* Eine weitere Forderung ist das die Leuchtdichte als unabhängige Komponete auftreten soll<br />
* Die Fläche des Dreiecks soll so klein wie möglich sein<br />
* Die dadurch berechnbaren Normalvalenzen sind physikalisch nicht erzeugbar -> Die Spektralwertkurven für das System müssen berechnet werden<br />
** Die Berechneten Spektralwertkurven sind stets nichtnegativ -> immer positive Transmissionsgrade und Sensorempfindlichkeiten<br />
[[Bild:NORMXYZ1.JPG]]<br />
* Mit dem XYZ-System kann man nun Farbdreiecke vergleichen und Bewerten<br />
** Abstände, Fehler und Systemeigenschaften sollten aber in einem empfindungsmäßig gleichabständigen Farbraum bewertet werden (u'v'w' und CIELab)<br />
* '''Optimalfarbkörper'''<br />
** Beschreibt die Grenze aller darstellbaren Körperfarben<br />
** Zur Erstellung schneidet man rechteckförmige Stückchen aus dem Spektrum von Idealweißem Licht aus<br />
<br />
== Das UVW-System ==<br />
* Informationsgehalt der Farbe für den Menschen hängt davon ab welche Farbunterschiede er wahrnehmen kann<br />
* Vor allem ist das interessant wenn Bildverarbeitungsprobleme auf der menschlichen Wahrnehmung formuliert sind<br />
* xy-Farbtafel hat starke Unterschiede zwischen örtlichen Abstenden und empfindungsmäßigen Abständen -> ungeeignet<br />
* erste Lösung<br />
** lineare Transformation<br />
** W' -> Helligkeit<br />
** U' -> Rot-Grün Bundheit<br />
** V' -> Gelb-Blau Bundheit<br />
** Ergebnis<br />
*** Wesentlich besseres Darstellung der Empfindung (Faktor 10 gegenüber dem XYZ-System)<br />
* verbesserte Lösung<br />
** verwenden einer nicht linearen Abbildung (Auge wird mit berücksichtigt)<br />
<br />
== L*a*b* oder CIELAB-Raum ==<br />
* Gegenfarbmodell<br />
* empfindungsmäßig gleichabständiger Raum<br />
* Grundsätzlich zur Angabe von Farbabweichungen verwendet<br />
** Geeignet zur Bewertung von Druckern, Monitoren und Abweichungen von Nachfärbungen<br />
* als Farbdifferenzmaß wird der euklidische Abstand benutzt (<1 nicht mehr Wahrnehmbar)<br />
<br />
== L*u*v* oder CIELUV ==<br />
* für additive Mischung vorgesehen<br />
* wie der CIELAB- Raum ein empfindungsmäßiger gleichabständiger Raum<br />
<br />
== YCbCr - Crominanzwertsystem ==<br />
* Entwickelt damit Farbfernsehen und S/W-Fernsehen Parallel betrieben werden konnten<br />
* Crominanzwerte<br />
** sind von Leuchtdichte befreite Werte<br />
** verschwinden für alle unbunten Farben<br />
** Cr= R-Y, Cg = G-Y, Cb = B-Y<br />
** Das System aus CrCbCg und Y ist überbestimmt => Es reicht die Übetragung von Cr , Cb und Y<br />
* Da das Auge auf Helligkeitsunterschiede empfindlicher reagiert als auf Farbunterschiede können die Crominanzwerte mit geringerer Auflösung übertragen werden<br />
<br />
== ΘSY - System ==<br />
* Der Bunttonwinkel Θ berechnet sich aus dem Verhältnis der Crominanzwerte Cb und Cr<br />
* Die Sättigung S ist der Betrag des Vektors CrCb<br />
<br />
== HSI - Farbraum ==<br />
* Intensität: <math> I= \frac{R+G+B}{3} </math><br />
* Sättigung: <math> S = 1 - 3 \cdot min (r,g,b) </math><br />
* Hue: <math> H= \left\{ \begin{matrix}\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B\le G \\ 2\pi -\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B>G \end{matrix}\right . </math><br />
* Raum ist nicht gleichmäßig gefüllt<br />
* bei kleinen Intensitäten I in Buntton und Sättigung Instabil<br />
* Es kann bei Farbmanipulationen dazu führen das es keine Entsprechungen im RGB gibt<br />
** Lösungen:<br />
*** Dachförmige Begrenzung des HSI Raums -> sehr Aufwendig<br />
*** Normieren der Intensitäten -> Bild kann ins dunkle verschoben werden<br />
*** Maximalwert setzen -> Falsche Farbwerte (werden ins unbunte verschoben)<br />
*** proportionales skalieren bis Farbe im RGB-Würfel liegt<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
<br />
== HSL - Farbraum ==<br />
* Gern für Computergrafik verwendet<br />
* einfache Beziehungen<br />
* Die Verwendeten Biegriffe H,S,L entsprechen nicht der Bedeutung in der Farblehre und Form des Raumes<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
* Buntton ist extrem instabil bei kleinen Sättigungen<br />
* Form des Raumes ist unpraktisch<br />
<br />
= Farbmessung (GF 1 - 11) =<br />
<br />
* Farbmessung = Ermittlung der drei zu einer Farbvalenz gehörigen Farbmaßzahlen<br />
* 3 Messmethoden: <br />
** Vergleichsmethode oder Gleichheitsverfahren<br />
** Spektralverfahren<br />
** Dreibereichsverfahren<br />
<br />
== Gleichheitsverfahren ==<br />
<br />
* Vergleiche:<br />
** Vorlage mit additivem Gemisch<br />
** Vorlage mit Farbmusterkarten (DIN-Karten)<br />
* unverzichtbar bei physiologischen Untersuchungen<br />
* aufwendig und bei kleinen Probandengruppen ungenau<br />
* d.h. für technische Messungen ohne Bedeutung<br />
<br />
'''Messbedingungen nach DIN:'''<br />
* helladaptiertes und blendfreies Sehen<br />
* unbunter Messraum<br />
* neutrale Gesichtsfeldumgebung mit gleicher oder etwas kleinerer Leuchtdichte als im Messfeld<br />
* gut ausgeruhtes und neutral gestimmtes Auge<br />
* farbnormalsichtiger Beobachter<br />
<br />
== Spektralverfahren ==<br />
<br />
* zu messende Farbvalenz = Summe spektraler Farbvalenzen<br />
* greift auf gemessene Normspektralwertkurven zurück<br />
<br />
# '''spektrale Messung zur Ermittlung der Farbreizfunktion <math>\varphi (\lambda) </math>'''<br />
#* Selbststrahler: direkte Messung der Strahlungsfunktion <math>\rightarrow \varphi (\lambda)= S (\lambda)</math><br />
#* remittierende Vorlage: Remissionsfunktion der Vorlage messen, d.h. Strahlungsfunktion S ist vorher zu bestimmen und aus <math>\varphi (\lambda)</math> heraus zu rechnen <math>\rightarrow \varphi (\lambda)= \beta (\lambda) \cdot S (\lambda)</math><br />
# '''farbvalenzmetrische Auswertung'''<br />
#* wenn <math>\beta (\lambda)</math> ermittelt wurde, kann jede beliebige (tabellierte) Lichtquelle <math>S^{\ast} (\lambda)</math>eingesetzt werden<br />
#: <math><br />
\begin{bmatrix}<br />
X\\Y\\Z<br />
\end{bmatrix}<br />
= k \cdot<br />
\begin{bmatrix}<br />
\int \bar{x} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{y} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{z} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda<br />
\end{bmatrix}<br />
</math><br />
#* Normierungskonstante k:<br />
#** Selbststrahler: nur Farbwertanteile gefragt, d.h. k ist beliebig<br />
#** Körperfarben: Y für mattweißen Körper = 100, d.h. <math>k=\frac{100}{\int {S(\lambda) \cdot \bar{y}(\lambda) d \lambda}}</math><br />
<br />
'''Messgeometrien:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bildergalerie (45°,8°,Transmission) </span><br />
<br />
* ''45°-Geometrie'': Beleuchtung unter 45° schließt Glanzeinfluss aus <math>\rightarrow</math> Sensor blickt senkrecht auf Probe<br />
* ''8°-Geometrie'': Beleuchtung diffus über Ulbricht-Kugel <math>\rightarrow</math> Sensor blickt unter 8° auf Probe; Messung mit/ohne Glanz möglich<br />
* ''Transmissionsgeometrie'': Probe wird durchleuchtet<br />
<br />
== Dreibereichsverfahren ==<br />
* die drei Farbwerte werden direkt photometrisch gemessen<br />
* Filter und spektrale Empfindlichkeite der Strahlungsempfänger müssen an die spektrale Bewertungsfunktion angepasst sein<br />
* '''Luther-Bedingung:''' <math> \tau_x(\lambda) = \frac{c_x \cdot x(\lambda)}{s_1(\lambda)}</math><br />
** <math> \tau_x(\lambda) </math> ... Filtertransmission<br />
** <math>s_1(\lambda)</math> ... Sensorempfindlichkeit (hier im ersten Kanal)<br />
** <math>c_x</math> ... Gerätekonstante<br />
** Für den Y und Z Kanal ist die Formel analog<br />
* Der notwendige Filter kann gut durch ein Set von Schmalbandigen Filtern realisiert werden<br />
<br />
== Spektralmaskenverfahren ==<br />
<br />
* spezielles Dreibereichsverfahren<br />
* Lichtzerlegung erfolgt mit einem Prisma<br />
* Das zerlegte Lich beleuchtet eine Maske (Papier, Plaste, Metal .... ne richtige echte Maske)<br />
* Messen der spektralen Verteilung (CCD-Zeile)<br />
* Ähnlich dem Spektralverfahren nur das das spektrum bereits im analogen entsprechend gewichtet wird<br />
<br />
== Metamerie ==<br />
* zwei Farbproben die bei einer bestimmten Beleuchtung gleich aussehen können bei einer anderen Beleuchtung ganz anderst aussehen<br />
* Der Metermarie-Index beschreibt diesen durch Beleuchtungswechsel entstehenden Farbwechsel<br />
* KEIN Maß für die Farbkonstantheit sondern für den Unterschied von zwei Proben<br />
* Berechnung erfolgt im L*a*b* Raum <br> <math> M_T = \sqrt {(L_{1T}-L_{2T}+L_{2B}-L_{1B})^2 +(a_{1T}-a_{2T}+a_{2B}-a_{1B})^2+(b_{1T}-b_{2T}+b_{2B}-b_{1B})^2 } </math><br />
** T ... Testlicht<br />
** B ... Bezugslicht<br />
** 1,2 ... Probennummern<br />
<br />
= Klassifikation von Messaufgaben (GF 82 - 86) =<br />
<br />
# Messung von objektiven Eigenschaften, die sich in der Veränderung spektraler Charakteristika niederschlagen<br />
#* vordergründig ist Zusammenhang zwischen Veränderungen in den physikalischen Eigenschaften von Interesse (z.B. Waferinspektion)<br />
#* Zusammenhang sollte eindeutig und von hinreichender Empfindlichkeit sein<br />
#* Wahrnehmung unterschiedlicher Farben eher Nebeneffekt<br />
# Überwachung der Stabilität von farblichen Erscheinungen<br />
#* ist bei einer oder mehreren Beleuchtungen zu überwachen<br />
#* absolute Farbmessung nicht nötig; "Anlernen" auf Farben genügt<br />
#* Abstände im Farbempfinden müssen sich in gleicher Weise in Veränderungen der Sensorsignale wiederspiegeln<br />
# absolute Farbmessung<br />
#* d.h. Ermittlung der korrekten Farbvalenz unter beliebigen Messbedingungen<br />
#* Spektralwertkurven müssen realisiert werden<br />
# Messung des spektralen Remissions- und/oder Transmissionsverhaltens von Materialien<br />
#* ausschließlich spektrale Messverfahren<br />
#* Messung der Strahlungsfunktion und der remittierten Leistungsdichte<br />
#* Berechnung der Farbvalenz bei beliebiger Beleuchtung und des Metamerie-Index<br />
<br />
'''steigende Ansprüche mit steigender Nummerierung'''<br />
<br />
= Einfache Farbkalibrierung (GF 16 - 41) =<br />
* Farben sollen möglichst exakt Wiedergegeben werden<br />
<br />
== Ausgleich von Beleuchtungseinflüssen ==<br />
* Körperfarben werden durch ihre Remmision bestimmt <math> \beta </math><br />
* Bei unterschiedlicher Beleuchtung sehen Farben unterschiedlich aus aber das Auge kann sich an die Beleuchtung adaptieren<br />
** Funktioniert bei Fotos aber nicht -> Beleuchtungsausgleich ist wichtig<br />
** Bei Farbvergleich noch viel mehr<br />
** Wird realisiert durch Weißabgleich (auf integraler Farbebene nicht möglich )<br />
* Direkte Vermessung der spektralen Eingenschaften der Kamera nicht möglich (Da Werte in Kamera bereits verrechnet werden um z.B. die negativen Anteile der Spektralkurven zu realisieren)<br />
** sehr Aufwendig (Kamera auseinanderbasteln um an die echten werte zu kommen + das durchgehen durch das Spektrum in kleinen Schritten)<br />
* Daher Verwendung von Testfarben<br />
** Führt auf Lösung eines linearen Gleichungssystem<br />
** Für menschliches empfinden -> Optimieren im CIELAB-Raum<br />
* Vorsicht bei nichtlinearen Funktionen zur Farbkalibrierung -> Kann bei zu wenig Testfarben zu total falschen Ergebnissen führen !!<br />
<br />
= Color Management (F CM 1 - 20) =<br />
* verschiedene Geräte können verschiedenen Farben darstellen<br />
* verschiedene Geräte verwenden andere Grundfarben zum mischen<br />
* Mit Hilfe von Profilen (Tabellierung der Farbwerteumrechnungen) wird eine Konvertierung der Farben vom Geräteraum in den CIELab Raum bzw umgekehrt durchgeführt<br />
* in den Profilen wird auch vermerkt welche Farben darstellbar sind und welche nicht<br />
* Somit kann man eine "Druckvorschau" auch auf einem Monitor erreichen (natürlich nur für Farben die auf beiden Geräten dargestellt werden können)<br />
** Jedes Mapping der Farben (Gamut-Mapping stellt somit einen Kompromiss dar)<br />
**# Perceptual (Die Farbbeziehungen untereinander werden erhalten) Komprimierung des Gamuts bis er in den zur Darstellung verwendeten passt<br />
**# Colometrisch -> Exakte Reproduktion aller in beiden Gamuts darstellbaren Farben<br />
**## relativ -> weiß wird auf weiß abgebildet und alle anderen Farben relativ dazu<br />
**## absoult farbmetrisch<br />
**# Saturation, alle Farben außerhalb des Zielgamuts werden zugunsten der Sättiung verändert<br />
* Kalibrierung -> Versetzen des Gerätes in einen definierten, reproduzierbaren Zustand<br />
* Charakterisierung -> Modellierung eines Gerätes welches sich ein einem stabilen definierten Zustand befindet<br />
<br />
= Kameras (GF_Ka 1 - 12) =<br />
<br />
'''Einsatzfelder:'''<br />
* ortsaufgelöste Messung von Farbe<br />
* Aufnahme und Wiedergabe von True-Color Bildern<br />
* Aufnahme farbiger oder mehrkanaliger Bilder für die Verarbeitung/Analyse (Qualitätssicherung)<br />
* Photogrammetrische Anwendungen (Lösung des Korrespondenzproblems)<br />
* Radiometrische Anwendungen (Messen im Spektralbereich)<br />
<br />
'''Dreibereichsmessung:'''<br />
* setzt die Trennung von drei sich überlappenden Spektralbereichen voraus, die dann wellenlängenabhängig zu bewerten und zu integrieren sind<br />
<br />
== Dreichip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* optische Kanaltrennung und Bewertung<br />
* beste Bildqualität, da hohe Auflösung in allen drei Kanälen<br />
* keinen örtlichen Versatz der Pixel in den drei Farbauszügen<br />
* Filter einfacher und präziser zu realisieren<br />
* befinden sich z.B. als dichroitische Spiegel auf den Strahteilerprismen<br />
<br />
<span style="color:#ee0000;"> \\ Hot-Mirror-, Cold-Mirror-Korrektur????</span><br />
<br />
== Einchip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: doppelte Anzahl grüner Pixel wegen Schärfe, MTF des Auges </span><br />
<br />
* örtliche Kanaltrennung und Bewertung<br />
* Streifen- oder Mosaikfilterstrukturen auf den einzelnen Pixeln zur örtlichen Signaltrennung<br />
* 3 oder 4 unterschiedliche spektrale Auszuüge zur Erzeugung der Farbinformation<br />
* Matrix selbst kann Interline- oder Frame-Transfer-Matrix sein<br />
* kostengünstiger und kleiner als Dreichip-Kameras<br />
* Probleme:<br />
** Farbvalenzen aus örtlich versetzten Auszügen (z.B. Farbsäume an Kanten)<br />
** nicht korrigierbare Fehler aus Nichtlinearitäten und Dunkelsignalen bei der Bildung von Mischsignalen<br />
<br />
'''generelle Anforderungen an die Signalverarbeitung:'''<br />
<br />
* primäre Kamerasignale stellen keine farbmetrische Schnittstelle zur Verfügung, d.h. alle Bewertungsfunktionen sind nicht-negativ (Spektralwertkurven fordern aber negative Wichtungen)<br />
* je nach realisierten Filtern und Genauigkeitsansprüchen <math>\rightarrow</math> lineare Matrizierung (meist Kameraintern) oder komplexere Approximation<br />
* bei hohen Genauigkeitsansprüchen <math>\rightarrow</math> Umgehung der Kamerainternen Matrizierung, weil Verstärkungsfaktoren, Toleranzen, Temperaturdrift, Langzeitstabilität etc. nicht bekannt sind<br />
* insgesamt geringe Nichtlinearitäten der CCD's können in den Ansteuerbereichen der einzelnen Kanäle zu wesentlichen Fehlern führen:<br />
** Farbvalenz ändert sich kontinuirlich mit der Shutterzeit<br />
** Pixelweise DSNU- (Dunkelsignalungleichförmigkeit) und PRNU- (Hellsignalungleichförmigkeit) Korrektur vor Erzeugung der Farbvalenz erforderlich, da sich Festmusterrauschen nicht nur auf Intensität sondern auch auf Farbart auswirkt<br />
** Dunkelsignal verdoppelt sich alle 7K, Gleichanteil wird aber geklemmt<br />
** Lichtquellentyp und Langzeitverhalten wirken sich nicht nur Intensität sondern auch auf Farbtemperatur aus<br />
<br />
'''4 spektrale Bereiche:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* vorteilhaft zur Erzeugung von Farbdifferenzsignalen für die TV-Kompatibilität<br />
* im Field-Integration-Mode werden Mischsignale gebildet, die die erforderliche Signalkorrektur für hohe Ansprüche behindern<br />
* Nichtlinearität der Ausgangsverstärker wirkt sich auf Korrektur der primären Mischsignale aus<br />
<br />
== Sequentielle Einchip-Kamera ==<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* zeitliche Kanaltrennung und Bewertung<br />
* relativ genaue Approximation der Spektralwertkurven möglich<br />
<br />
== Elektrisch steuerbare Filter ==<br />
<br />
* über die Wellenlängenabhängigkeit der Eindringtiefe der Photonen und die Steuerbarkeit der Tiefe der Potentialmulden der sensoren lassen sich steuerbare spektrale Empfindlichkeiten erzeugen<br />
<br />
= Verarbeitung von Farbbildern (1 - 31) =<br />
* Das unabhängige verarbeiten der Farbkanäle eines Farbbildes führt zu Nebeneffekten wie Farbsäume<br />
* Die höhere Vielfalt des mehrdimensionalen Raumes von Farbbildern kann Vorteilhaft genutzt werden für Pixelklassifikation, Segmentierung <br />
* Abstände, Mittlere Werte und örtliche Veränderungen sind in empfindungsmäßig gleichabständigen Räumen zu definieren und zu bewerden<br />
<br />
== Histogramme und Statistiken für Farbbilder ==<br />
* Farbbilder liefern dreidimensionale Häufigkeitsverteilungen im Farbraum → können als Approximation der entsprechenden 3D-Dichten verwendet werden<br />
* statistische Zusammenhänge zwischen den Kanälen werden in mehrdimensionalen Dichten betrachtet<br />
** Für Handauswertung meist nur 2D-Dichten, wegen der Übersicht<br />
** Für maschinelle Auswertung können diese dichten auch dreidimensional werden<br />
** für die parametrische Darstellung der Cluster werden meist multivariante Gaußverteilungen eingesetzt<br />
*** Einr Gaußverteilung ist für die Beschreibung eines Bildes mit mehreren Objekten nicht geeignet<br />
*** Die Kovarianzmatrix einer solchen "Approximation" kann aber gut zur Einschätzung der Streuung und der Mittelwerte in dem Bild eingesetzt werden<br />
<br />
=== Histogramm - Modifikationen ===<br />
* Contrast Streching, Polygonal Image Scaling, Histogram-Equalisation Siehe [[Grundlagen der Bildverarbeitung und Mustererkennung#homogene Punktoperationen|Grundlagen der Bildverarbeitung]]<br />
* Manipulation kann in verschiedenen Farbräumen ausgeführt werden (RGB,HSI,...)<br />
** In nicht empfindungsmäßig gleichabständigen Räumen muss die Transformation nicht unbedingt zum Ziel führen<br />
==== Manipulation im Farbraum RGB ====<br />
* ist der Farbraum in dem die Daten häufig vorliegen<br />
* Wirkung kann auf Grund der starken korrelation der RGB Werte bei geringen Sättigungen ausbleiben<br />
* Farbverfälschung wenn einzelne Kompontenen unabhänig von einander behandelt werden<br />
* hohes apriori-Wissen notwendig<br />
* wenn Falschfarbdarstellung gewünscht ist kann dies das mittel der Wahl sein<br />
<br />
==== Manipulationen im Farbraum HSI ====<br />
* unproblematisch in Bezug auf Farbverfälschungen<br />
* Zielsetzungen können sich einfacher beschreiben lassen (ähnelt der Beschreibung von Farbe durch den Menschen)<br />
* unabhängige Komponente (Intensität)<br />
* Kontrastverbesserung durch Sättigungsausgleich ohne Farbveränderung möglich<br />
* Stabilitätsprobleme nahe den unbunten Farben<br />
# '''Ausgleich des Intensitätshistogramms'''<br />
#* Werte möglich die keine entsprechung mehr im RGB haben → müssen geeignet herruntergerechnet werden<br />
#* bei kleinen Intensitäten sind die Bunttöne instabil → ausschließen von Veränderungen<br />
# '''Sättigungsausgleich'''<br />
#* Modifikation der Sättigung unter Beibehaltung des Bunttones<br />
#* Bei kleinen Sättigungen und kleinen Intensitäten ist der Buntton instabil → Ausschließen<br />
#* Histogramm über alle Bunttöne ist häufig verschmiert → besser Histogramm über Buntton Segmente<br />
# '''Bunttonausgleich'''<br />
#* Ziel sind Farbfalschbilder um Objekte besser unterscheiden zu können<br />
#* bei zu großen Buntton Änderungen wird die Interpretierbarkeit nur bei homogenen Flächen verbessert, meist wird sie eher verschlechtert<br />
#* Unsicherheit des Bunttons → bei geringen Sättigungen und Intensitäten ist der Buntton auszuschließen<br />
<br />
== segmentgesteuerte Farbvalenztransformationen ==<br />
* Globale Statistiken werden häufig durch nicht interressante Objekte dominiert<br />
* Ausweg ist das Betrachten von Ausschnitten und anwenden der Transformationen auf die Ausschnitte<br />
* erfordert zu erst das Segmentieren des Bildes<br />
<br />
= Referenzfreie Farbadaption auf Basis des 3D-Histogramms (HuS 32 - 39 ) =<br />
* unter bestimmten umständen kann auf eine Kalibrierung der Kamera mittels Referenzfarben verzichtet werden<br />
* Zur Korrektur soll die parametrische Approximation der 3D-Histogramme durch multivariante Gaußverteilungen genutzt werden<br />
== Vorraussetzungen für die Anwendbarkeit ==<br />
* Strukturierte Szene mit mehreren ntürlichen Objekten, die gleichmäßig über den Bunttonwinkel verteilt sind und durchschnittlichen Sättigungsgrad aufweisen<br />
* Langgestreckter SW-Prozess im Vergleich zum Rot-Grün und Blau-Gelb Prozess<br />
<br />
== Vorgehensweise ==<br />
* Korregieren von "vermutlichen" Abweichungen des Bildes in der Unbuntheitsachse<br />
* Dazu Ermitteln der Hauptachsen mit PCA<br />
* Drehen der Hauptachse in den SW-Prozess<br />
* Rücktransformation und Darstellung<br />
<br />
= Histogrammbasiertes Farbmatching(1 - 15) =<br />
* Histogramme sind im 2D Bild invariant gegenüber Rotation, Translation und Maßstab (wenn die Angaben relativ erfolgen !)<br />
* Histogramme sind auch relativ stabil gegenüber moderaten Verdeckungen und 3D-Rotation<br />
* Grobe Quantisierung der Histogramme um Fehlertoleranz zu erhöhen<br />
* Damit können Histogramme zur Objekterkennung eingesetzt werden → Bezeichnet als Color Indexing<br />
<br />
== uniformes Binning ==<br />
* einteilen der Farben in ein gleichverteiltes Histogramm<br />
* Suche in einem Bild den Ausschnitt welcher eine minimale Distanz zum Referenzbild hat<br />
* Als Abstandsmaß verwendet werden die Histogramme genutzt<br />
** Summe der Quadratischen Differenzen (Histogramme als Vektoren betrachtet und dann den euklidischen Abstand berechnet ohne Wurzel)<br />
** Earth Movers Distance (Berechnen was sich wohinverteilt haben könnte ... erfordert die Lösung des Transportproblems)<br />
* einfach aber die Bins ändern sich Sprunghaft, vor allem dann wenn Farben knapp an den willkürlichen Bingrenzen liegen<br />
<br />
== Unscharfe Chroma-Orts-Histogramme ==<br />
* Nachteile des uniformen Binning sollen überwunden werden<br />
* Alle Pixel bekommen eine unscharfe Klassenzugehörigkeit (Binnzugehörigkeit) je nach Abstand zum entsprechenden Binnmittelpunkt (wie bei [[Softcomputing|Fuzzy-C-Means]])<br />
** Ein Parameter ermöglicht dabei die Verunschärfung einzustellen (von total unscharf bis zum festen Binning)<br />
* Auch der absolute Ort der Segmente (aus denen die Histogramme erstellt werden) soll mit verwendet werden<br />
** Dazu wird das Bild in entsprechende Bereiche geteilt (8x8,16x16,...)<br />
** Alle Blöcke werden durchnnummeriert<br />
** Auch hier kommt es zu harten Umbrüchen wenn Pixel knapp an den Grenzen liegen → auch hier verunschärfen<br />
** Welche Indizees haben die Nachbarn? (Nachbarschaft in den Indizees der Blöcke heißt nicht gleich 2D-Nachbarschaft)<br />
<br />
== Cluster mittels Graphenansatz ==<br />
* Ziel ist es:<br />
** Sprunghafte Änderung der Binns zu verhindern<br />
** wenige Merkmale zu verwenden<br />
** Eng beieinander liegende Maxima trotzdem unterscheiden zu können<br />
* Verwendete Bilddaten:<br />
** Farbwinkelhistogramm, wenn Sättigung der Farben ausreichend ist<br />
** Intensitätsdiagramm, wenn Sättigung der Farben zu gering wird<br />
* Vorgehen:<br />
** Jeder Wert im Histogramm zeigt auf den Größten in seiner Nachbarschaft<br />
** Das Maximum zeigt auf sich selbst → Wird Merkmal<br />
** Weiteres Merkmal ist die Fläche die zum Maximum gehört (Nachbarn die direkt bzw. indirekt auf das entsprechende Maximum zeigen)<br />
* Match:<br />
** Finde ein Tupelpaar (Maxima in Referenzhistogram und Suchhistogram mit dem geringsten Abstand)<br />
** Ziehe gemeinsame Fläche von jedem Tupel des Paares ab<br />
** summiere gemeinsame Fläche (?)<br />
** Wiederhole bis sich keine Tupelpaare mehr bilden lassen<br />
** beziehe die laufende Summe auf das Maximum der Summe der ursprünglichen Flächen<br />
<br />
= Störunterdrückung (SU 1 - 16) =<br />
* Für nachfolgende Verarbeitungsschritte ist die Störunterdrückung sehr wichtig<br />
* Verschiedene verfahren der Rauschunterdrückung sind in [[Grundlagen der Bildverarbeitung und Mustererkennung#Lokale Operatoren zur Bildverbesserung (LOa 1 - 44) |BV]] eingeführt worden<br />
<br />
== Störunterdrückung durch Faltungsfilter ==<br />
* Anwendung wird einfach vektoriell durchgeführt (als würde man drei unabhängige Bilder gleichzeitig Filtern wollen)<br />
* es entstehen neue Farbtöne an den Übergängen zwischen Farben<br />
* im HSI Farbraum ist eine getrennte Betrachtung der Farbe und der Sättigung/Intensität möglich<br />
* Buntton ist zyklisch → muss bei der Mittelung beachtet werden<br />
* in der Farbe kann stärker gemittelt werden als in der Helligkeit (Auge nimmt Farbveränderungen schlechter wahr)<br />
* Komplexe Zahlen bieten sich hier als Rechenmittel an<br />
<br />
== adaptive gewichtete Mittelung ==<br />
* detailerhaltende Fähigkeiten von Filtern wegen der Farbsäume besonders von Interesse<br />
* Abstände verkomplizieren sich im Vergleich zu Grauwertbildern (Vektorabstandsmaße, Winkeldifferenzen,...) <br />
* Vorgehen nach dem Berechnen des Abstandes dann wieder Analog zur Grauwertfilterung<br />
<br />
== Medianfilterung ==<br />
* Problem bei der Übertragung des Rangordnungsgedankens auf Vektoren<br />
** Komponentenweises Vorgehen ist nicht geeignet (absolute Farbverfälschungen möglich)<br />
** Suche des besten Vertreters des SETS (wenn der verwendete Media im SET ist werden keine zu falschen Farben gewählt/gesetzt)<br />
*** kleinste Abstandssumme zu allen anderen Pixeln<br />
<br />
== Kombination von Averaging und Medianfilterung ==<br />
* Medianfilter ist gut für Impulsrauschen, schlecht bei Gauß hier ist Average gut<br />
* Bei den Filtern gibt es keinen unterschied zu den Grauwertbildern (unterschied besteht nur in der Realisierung der verwendeten Media/Average Filter nicht in ihrere Kombination)<br />
<br />
== Vektor-Richtungs-Filter ==<br />
* '''Basic Vecotr Directional Filter'''<br />
** Winkel zwischen Farbvalenzen als Distanzmaß<br />
** Ergebnis ist die Farbvalenz mit der kleinsten Winkeldifferenzsumme zu allen Valenzen des Fensters<br />
** Achromatische Rauschkomponenten werden nicht beseitigt<br />
* '''Generalized Vector Directional Filter '''<br />
** Suche nach den besten Vektoren aus Sicht der Richtung<br />
** Medianfilterung der Beträge der Vektoren<br />
* '''Directional Distance Filter'''<br />
** Vermeiden der Ineffizenz des GVDF Filters durch ein gemischtes Distanzmaß (Betrag und Winkel gleichzeitig)<br />
<br />
= Kantendetektion in Farbbildern (1 - 21) =<br />
* Wichtig für Segmentierung, Bildanalyse und Bildverstehen<br />
* [[Grundlagen der Bildverarbeitung und Mustererkennung#Kantendetektion (LK 1 - 38)| Kantenfilter]] bereits aus BV bekannt<br />
# '''Vektrogradient'''<br />
#* Berechnen der Jacobi-Matrix<br />
#* Wurzel aus dem größten Eigenwert ist der Vektorgradient<br />
#* Extrem Rechenaufwendig<br />
# '''Mittelwert der Richtungsableitungen'''<br />
#* Entspricht dem Gradienten im Intensitätsbild<br />
#* Zwei engegengesetzte Gradienten in unterschiedlichen Farben können sich gegenseitig aufheben → der Gradient der dritten Farbe dominiert egal wie klein er ist<br />
# '''Maximaler Gradient'''<br />
#* Suche nach dem Gradienten mit dem größten Betrag<br />
#* Korrelation der einzelnen Gradienten ist nicht von Bedeutung<br />
<br />
= Farbpixelklassifikation (Farbpixelklassifikation 1 - 21) =<br />
* Die Farbvalenzen bilden die Merkmale der Pixel<br />
* Anzustrebende Eigenschaften<br />
** Gute Beschreibung der Klassencluster und gute Trenneigenschaften<br />
** Einfache Belehrbarkeit (Aus Beispielen oder Expertenwissen)<br />
** Echtzeitfähigkeit<br />
** möglichst frühe Stufe der Verarbeitungskette ("Anspruchslosigkeit an das Bild")<br />
** Nutzen von Klassenzugehörigkeitsmaßen<br />
<br />
== optimaler Klassifikator ==<br />
* basiert auf dem Bayes-Theorem<br />
* findet die optimale Klassenentscheidung<br />
* Jeder Datenpunkt wird in die Klasse eingeordnet zur der er am Wahrscheinlichsten gehöhrt und bei der er die kleinsten Kosten für die anderen Klassen verursacht<br />
** Benötigt eine Risikofunktion die Angibt wie groß die Kosten bei Fehlklassifikation zwischen zwei Klassen sind<br />
*** Meist unbekannt und deswegen wird davon ausgegangen das die Kosten für jede Fehlklassifizierung gleich sind<br />
*** Kosten können durchaus auch bei richtiger Klassifikation definiert werden<br />
** Benötigt die Wahrscheinlichkeitsverteilung der Klassen im Raum (Meist unbekannt → Problem)<br />
*** können beliebig sein werden aber meist durch Gaußfunktionen approximiert<br />
*** in der Lernphase werden die Parameter dieser Verteilung geschätzt<br />
* Da Wahrscheinlichkeitsverteilung meist unbekannt ist, wird der Klassifikator ehr genutzt um einen anderen Klassifikator zu bewerten, wenn man eine bestimmt Wahrscheinlichkeitsverteilung festlegt (wie optimal ist der andere Klassifiaktor)<br />
<br />
== Maximum-Likliehood-Klassifikator ==<br />
* im Ansatz wie optimaler Klassifikator<br />
* setzten der Risikofunktion für alle Fehlklassifikationen auf einen konstanten Wert<br />
* verwenden von multivarianten Gaußdichten zur Beschreibung der Klassen<br />
* Entscheidung wird nur noch nach der a posteriori Wahrscheinlichkeit und der Klassen Verteilung gefällt<br />
<br />
== Malanobis-Abstandsklassifiaktor ==<br />
* schränkt den optimalen Klassifikator noch weiter ein im vergleich zum MLK Klassifikator<br />
* Kostenfunktion für Fehlklassifikation ist konstant für alle Fehlklassifikationen<br />
* Die a posteriorie Wahrscheinlichkeit für das auftreten der Klassen sein für alle Klassen gleich<br />
* Die Kovarianzmatrizen der Gaußverteilung der Klassen sind ähnlich<br />
* Damit ist die zuordnung zu den Klassen nur noch vom Abstand zu den Klassenzentren bestimmt<br />
** Abstandsmaß ist die Mahalanobis-Distanz<br />
<br />
== Gaußklassifikator und Kernel-Densitiy-Klassifikator ==<br />
* schränken noch weiter ein<br />
# '''Gaußklassifikator'''<br />
#* keine Kovarianzen mehr in der klassen Verteilung → Kugelförmige Klassenverteilungen<br />
# '''Kernel-Density-Klassifikator'''<br />
#* Spezialfall von Gauß-Mischverteilungen<br />
#* [... was genau der Macht frage ich in der Konsultation mal nach ... im Skript steht nix brauchbares]<br />
<br />
== LUT-Klassifikator ==<br />
* direktes Verwenden der Stichprobenhistogramme<br />
* erforder Closing im Merkmalsraum da nicht alles durch die Stichproben abgedeckt werden wird<br />
<br />
= Clusterverfahren (Farbpixelklassifikation 19 - 29) =<br />
* Ziel ist es komplexe Klassenbeschreibungen durch mehrere parametrische Einzelcluster zu approximieren<br />
* Beliebig komplexe Klassenformen lassen sich so Speichereffizient beschreiben<br />
* trotz Komplexer Beschreibung bleibt eine weiche Klassengrenze möglich<br />
<br />
== Erzeugen der Cluster ==<br />
=== Radiusrestriktionsmethode ===<br />
* keine Startpartition erforderlich<br />
* indirekte Optimierung: Zielfunktion dient nur der Bewertung der fertigen Partition<br />
* Ablauf:<br />
*# Erstes Element initialisiert das erste Cluster<br />
*# Alle Elemente werden einem Cluster zugeordnert wenn der Abstand zum Clusterzentrum unterhalb eines bestimmten Wertes liegt<br />
*# Für alle Elemente die damit ausserhalb der Cluster liegen wird ein neuer Cluster angelegt<br />
*# Wichtig ist eine gute Radiusschätzung der Cluster (Varianz der Stichprobe durch Anzahl der gewünschten Cluster)<br />
*# als Gütefunktion nutzt man die Quadratische Abweichung von den Clusterzentren<br />
<br />
=== Minimaldistanzmethode ===<br />
# Ausgangspunkt ist eine nur die Radiusrestriktionsmethode erstellte Partition<br />
# Alle Klassen Mittelpunkte werden neu Berechnet<br />
# Berechnen einer neuen Minimaldistanzpartiton anhand einer gewählten Metrik<br />
# Ein Abbruchkriterium entscheidt über das weitere vorgehen<br />
#* Kriterium für Partition ist besser geworden → mache Weiter<br />
#* Anzahl der Interationschritte überschritten → Abbruch<br />
#* Anzahl der Interationschritte noch nicht überschritten && Kriterium für Partition ist gleich geblieben → mache weiter<br />
#* Kriterium für Partition ist schlechter geworden → breche ab<br />
<br />
=== k-Means-Austauschverfahren ===<br />
# Ausgangspunkt ist eine Startpartition<br />
# Merkmalsvektoren umgruppieren wenn die distanz zu einem anderen Klassenzentrum kleiner ist als zum aktuellen<br />
# Neu berechnen der Klassenmetriken<br />
# Abbruch wenn anzahl der Interartionsschritte überschritten ist oder keine Umgrupierung mehr erfolgt<br />
* Meist eingesetzt wird die Mahalanobis-Distanz → Hypereliptische Cluster die sich wunderbar eignen langgestreckte Verteilungen zu approximieren<br />
= Trennfunktionsklassifikatoren (Farbpixelklassifikation 30 -39) =<br />
* Bei gegen Null gehenden Verteilungsdichten trangen weit entfernte Regionen keine Aussagekraft mehr → daher ist es Angebracht eine Rückweisungsklasse einzuführen<br />
<br />
== Mahalanobis ==<br />
* Verwenden der Mahalanobis-Distanz zur Klassifikation<br />
* wenn die Hauptdiagonale der Kovarianzmatrix >> als die restlichen Matrixelemente<br />
** Vereinfachung des Distanzmaßen möglich zu einem achsenparallelen Elipsoiden<br />
* wenn Streuung der einzelnen Merkmale gering ist vereinfacht sich der Ellipsoid zu einer Kugel (euklidisches Abstandsmaß)<br />
* wenn Streuung in den Klassen etwa gleich Groß ist können die Klassenspezifischen Skalierungen entfallen<br />
<br />
== Hyperquader-Klassifikation ==<br />
* Zur Zuordnung sind nur noch Intervalltests notwendig<br />
* Sehr grobe approximation der Klasse da meist elliptische Datenverteilungen auftreten<br />
* Funktioniert gut bei dekorrelierten Merkmalen → achsenparallele Ellipsen<br />
* schnell und einfach<br />
* kann eingesetzt werden um die Überlappung von Klassen zu abzuschätzen<br />
<br />
== Decision-Tree-Klassifikator ==<br />
* Verwenden einfacher Schwellen zur Abgrenzung der Klassen<br />
* Klassenbeschreibungsräume werden durch meherere Grenzen beschrieben<br />
* Effiziente Beschreibung erfolgt mit Bäumen<br />
<br />
== Linear Klassifikator → Hyperebene ==<br />
* Trennen des Merkmalsraumes mittels Hyperebene in zwei Halbräume<br />
* Separierbare Zweiklassenprobleme sind damit lösbar<br />
* Nichtlineare Klassengrenzen können stückweise lineare Aproximation mit mehreren Teilebenen gelöst werden<br />
* mittels Gradientenabstieg wird die Hyperebene angepasst<br />
* Eeiterentwicklung ist die SVM<br />
<br />
== Support Vector Machines ==<br />
* Maximierung des Abstandes der Trennebene von den Klassenrepresentanten<br />
* Transformation in einen höherdimesnionalen Raum um linear sepparieren zu können<br />
<br />
== k-Nächster-Nachbar-Klassifikator ==<br />
* Klassifikation erfolgt nach dem Abstand zum nächsten Klassenrepresentanten aus der Stichprobe<br />
* Metrik kann beliebig gewählt werden<br />
<br />
= Neuronale Klassifikatoren (Farbpixelklassifikation 40- 45) =<br />
= Segmentierung (Seg 1 - 8) =<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Grundlagen_der_Farbbildverarbeitung&diff=6999Grundlagen der Farbbildverarbeitung2009-03-17T13:22:11Z<p>DarkGhost: /* Support Vector Machines */</p>
<hr />
<div>Link zum [http://www.zbs-ilmenau.de/intern/vip-toolkit/index.php Vip toolkit]<br />
= Einführung (GF_a 8 - 47) =<br />
<br />
== Geschichtliches zur Farbe ==<br />
<br />
=== Newton ===<br />
<br />
* 1672: New Theory about Light and Colours<br />
** Sonnenlicht = Mischung einzelner Farben<br />
** Spektralfarben sind objektive Eigenschaft des Lichtes<br />
<br />
[...]<br />
<br />
=== Goethe ===<br />
<br />
[...]<br />
<br />
== Begriff der Farbe ==<br />
<br />
* '''Farbe im engeren Sinn, stellt eine spezielle menschliche Sinneswahrnehmung dar'''<br />
* <math>\Phi_i = \int_{\Delta \lambda_i} \varphi_{\lambda} (\lambda) d \lambda</math><br />
* Leistungsdichte <math>\phi (\lambda)</math> stellt dagegen den Farbreiz dar, der die Farbempfindung hervorruft<br />
* Vektoren <math>\underline \Phi</math> sind je nach Dimension mehr oder minder genaue Approximationen des Farbreizes<br />
<br />
* Orientierung am menschlichen visuellen System und die Betrachtung psychologischer und physiologischer Grundlagen sind von Interesse:<br />
** zur richtigen Bewertung der Schwierigkeiten und Herausforderungen bei der Schaffung technischer Lösungen<br />
** zur Anpassung technischer Lösungen der Bildwiedergabe an das visuelle System<br />
** zur Nutzung optimaler Naturprinzipien für technische Lösungen<br />
** weil technische Systeme im allgemeinen auf dem inneren Modell des Menschen von der Welt beruhen und dieses Modell in hohem Maße durch den visuellen Kanal des Menschen beeinflusst ist<br />
** weil optoelektronische Sensoren, Bildverarbeitung und Bildanalyse wichtige Schnittstellen zwischen Mensch und Maschine darstellen<br />
**weil viele Objekteigenschaften durch visuelle Eindrücke beschrieben werden<br />
<br />
* menschliches Auge kann ca. 100 Graustufen / ca. 300 000 Farben unterscheiden<br />
<br />
* Drei grundsätzliche Anwendungen von Farbinformation:<br />
** Pseudokolorierung<br />
** Falschfarbendarstellung<br />
** Echtfarbdarstellung (True Color) <math>\rarr</math> hier Schwerpunkt<br />
<br />
== Farbtäuschung ==<br />
<br />
* Zuordnung zwischen Physik und Wahrnehmung nur eindeutig wenn bunte Dinge isoliert betrachtet werden<br />
* Werden bunte Objekte in bunte Umgebungen eingebettet/bewegt, dann können abweichende Farbwahrnehmungen auftreten, so genannte Farbtäuschungen<br />
* es existieren unterschiedliche Arten solcher Täuschungen:<br />
** ''Farbinduktion oder simultaner Farbkontrast'' (Farbe wird durch ihre Umgebung modifiziert)<br />
** ''Farbkonflikt'' (es konkurrieren verschiedene Sehinformationen miteinander)<br />
** ''Subjektive Farben'' (es werden bunte Farbtöne wahrgenommen, die nicht vorliegen)<br />
<br />
'''Simultaner Farbkontrast:'''<br />
* erstmals 1839 beschrieben<br />
* wo der Effekt entsteht (Auge, Cortex) ist unklar<br />
<br />
'''Farbinduktion:'''<br />
* bei kleinteiligen, sich wiederholenden Strukturen erfolgt Angleichung<br />
* kann zur Rauschunterdrückung oder zur Unterdrückung von Feintexturen zugunsten der Erkennung größerer Objekte wichtig sein<br />
<br />
'''Farbkonflikt:'''<br />
* Formen und Strukturen konkurrieren mit Farben ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf White'sche Illusion])<br />
<br />
'''Subjektive Farben:'''<br />
* durch Bewegung ist es möglich Farben zu erzeugen die ursprünglich nicht vorhanden waren ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf Drehwurm in Farbe])<br />
<br />
== Farbwahrnehmung beim Menschen ==<br />
<br />
[...]<br />
<br />
=== Rezeptive Wahrnehmung ===<br />
* 1807 stellte Young die Hypothese auf das Farbsehen auf drei Arten von Sinneszellen beruht (rout,grün,blau)<br />
* erst 1964 konnten dies bewiesen werden, durch die Messung der Absorptionsspektren<br />
*[[Datei:Pdt-kurven.svg]]<br />
<br />
=== Postrezeptive Wahrnehmung ===<br />
* Mit dem 3 Farbenmodell konnten einige psychologische Erscheinungen nicht erklärt werden<br />
** Es werden 4 Farben als besonderst "rein" empfunden (Rto, Geln,Grün, Blau)<br />
** Unbunte Farben werden werden als das fehlen von Farben wahrgenommen<br />
** Schwarz schein gleichberechtigt zu Weiß<br />
** keine wahrgenommene Farbe erscheint zugleich rötlich und grün<br />
* das führte zur Gegenfarbentheorie die anfangs nur Psychologisch begründet war 1958 aber physiologisch Nachgewiesen werden konnte<br />
** Rot - Grün<br />
** Gelb - Blau<br />
** Schwarz - Weiß<br />
* → CIELab-Farbraum<br />
<br />
=== Kortikale Kodierung ===<br />
* Weder die 3 Farbentheorie noch die Gegenfarbentheorie beschreiben die bewusste Wahrnehmung des Menschen<br />
* Deshalb erweitertes Modell<br />
** Farbton / Buntton beschreibt die als besonderst rein empfundenen Spektralfarben<br />
** Sättigung beschreibt wie stark eine Farbe verblasst ist<br />
** Helligkeit beschreibt, wie hell oder dunkel eine Farbe ist<br />
* Wo/Wie genau die neuronale Verarbeitung erfolgt, ist noch nicht sicher belegt<br />
<br />
== Die Ordnung in der Welt der Farben ==<br />
* Newton kannte die Wellenlänge noch nicht → er ordnete die Farben nach dem Regenbogen<br />
* Goethe verwendete das Gegenfarbenmodell<br />
* Munsell schlug 1905 ein Farbordnungssystem vor bei dem alle Abstände zwischen den Farben Empfindungsmäßig gleich sind<br />
** führt zu einem geometrisch nicht regelmäßigen Körper<br />
<br />
== Das Modell der Farbe ==<br />
* '''Definition'''<br />
** Farbe ist diejenige Gesichtsempfindung eines dem Auge strukturlos erscheinenden Teils eines Gesichtsfeldes durch die sich diser Teil bei einäugiger Betrachtung mit unbewegtem Auge von einem gleichzeitig gesehenen ebenfalls strukturlos angrenzendem Bezirk allein unterscheidet (unbunte Farben: Schwarz, Weiß und Graustufen, bunte Farben: Helligkeit; Buntheit setzt sich aus Buntton und Farbsättigung zusammen)<br />
** Farbe ist durch Helligkeit, Buntton, Sättigung eindeutig bestimmt → 3D Modell<br />
*** drei linear unabhängige Größen<br />
*** Additive Mischung zur Reproduktion von Farbe (aus Rot, Grün, Blau)<br />
*** drei linearunabhängige Größen spannen immer einen Raum auf → Rot,Grün und Blau werden die Achsen dieses Raumes<br />
<br />
=== Farbvalenz ===<br />
* Mit unserem Modell läßt sich jede Farbe als linearkombination unserer drei Basisvektoren aufschreiben<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
** <math> \vec F</math> ... Farbvalenz<br />
** <math> \vec r, \vec g, \vec b </math> ... die drei Basisvektoren die den Raum aufspannen (Rot, Grün und Blau)<br />
** <math> R,G,B, |\vec F| </math> ... die Farbwerte<br />
** <math> \vec r \cdot R, \vec g \cdot G, \vec b \cdot B </math> ... die drei Primärvalenzen<br />
* Ermittelt werden die Farbwerte mit Hilfe der Vergleichsmethode<br />
** Eine Person vergleicht ein Target mit einer Farbe die aus den drei Primärvalenzen gemischt wird<br />
** wenn die Empfindung der beiden Farben gleich ist, dann notieren wir die Werte<br />
* Innere Farbmischung<br />
** das Target wird mit weißen Licht beleuchtet und wir drehen nur an dem Farbmischgerät<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
* Äußere Farbmischung<br />
** Wir beleuchten das Target mit farbigen Lichte<br />
**<math> \vec F+ B \cdot \vec b = R \cdot \vec r + G \cdot \vec g \rightarrow \vec F = R \cdot \vec r + G \cdot \vec g - B \cdot \vec b</math><br />
<br />
=== Farbreizmetrik ===<br />
* Die Farbreizfunktion <math> \varphi_\lambda</math> beschreibt die spektrale Zusammensetzung der Farbempfindungen<br />
*# Selbstleuchtende Objekte<br />
*#* <math> S_\lambda (\lambda)</math> beschreibt die spektrale Verteilung der Quelle<br />
*#* Wahrnehmung: <math> \varphi_\lambda = S_\lambda</math><br />
*# Auflicht Vorlagen<br />
*#* <math>\beta_\lambda(\lambda)</math> beschreibt den spektralen Remisionsgrad der Vorlage<br />
*#* Wahrnehmung: Licht reflektiert von der Vorlage <math> \varphi_\lambda = S_\lambda \cdot \beta_\lambda</math><br />
*# Durchlichtvorlagen<br />
*#* <math>\tau_\lambda(\lambda)</math> spektraler Transmissionsgrad der Vorlage<br />
*#* Wahrnehmung von Licht welches die Vorlage durchdrungen hat <math>\varphi_\lambda= S_\lambda \cdot \tau_\lambda</math><br />
* Damit haben folgende Faktoren Auswirkung auf die Wahrgenommene Farbe<br />
*# Die Beleuchtung des Objektes (Spektrale Zusammensetzung des Lichtes der Lampe)<br />
*# Das Remmisionsverhalten der beleuchteten Oberfläche<br />
*# Die wellenlängenabhängige Empfindlichkeit der drei Zapfen des Auges<br />
* Es besteht die Möglichkeit die pdt Kurven direkt zur Beschreibung des Farbempfindens zu nutzen<br />
* Die Farbwerte könnte man dann wie folgt ermitteln: <math> \left(\begin{matrix}P\\D\\T\end{matrix}\right)=k\int_{380\mathit{nm}}^{780\mathit{nm}}\varphi (\lambda )\cdot \left(\begin{matrix}p(\lambda )\\d(\lambda )\\t(\lambda )\end{matrix}\right)d\lambda </math><br />
* Für die technische Darstellung von Farbe werden allerdings R,G,B werte benötigt<br />
* Die dafür notwendigen Spektralwertkurven können mit Hilfe der Vergleichsmethode ermittelt werden<br />
* Man erhält damit folgende Kurven<br />
[[Datei:SpektralwertfunktionenRGB.jpg]]<br />
* Mit der gleichen Formel wie bei der pdt Kurve lassen sich nun die R,G,B Werte rechnerisch ermitteln<br />
<br />
== Farbanalyse, Zusammenhang mit der Farbwidergabe ==<br />
* Das Kammera - Monitor System soll die Farbe exakt wiedergeben<br />
* Der Monitor verwendet EBU Phosphore für die Farbdarstellung<br />
** haben selbst Spektralwert kurven => keine Monochromatischen Lichter mehr<br />
* Die notwendigen spektralwertkurven die die Kamera realisieren muss um die Bilder auf dem Monitor exakt darzustellen lassen sich mit Hilfe der pdt Kurven herleiten (Über forderung der Gleicheit der Farben)<br />
* Sie besitzen stark negative Anteile => Auch die Filter der Kamera müssten negative Transsmissionsgrade besitzen<br />
** technisch ist das nicht möglich<br />
* es bleibt also nur die Möglichkeit die notwendigen Parameter zur Ansteuerung des Monitors aus positive one-peak Kurven zu berechnen<br />
<br />
== Subtraktive Farbmischung ==<br />
* Die Subtraktive Farbmischung lässt sich auf die Multiplikation der Transmissionsgrade zurückführen (ein Filter lässt 50% rotes licht durch, wenn man zwei dieser Filter hintereinander legt, dann geht nur noch 25% rotes Licht durch die Anordnung (0.5*0.5 = 0.25) )<br />
* wenn <math> \tau_0 </math> die Transmission eines Filters für die normierte Dicke 1 und die normiert Dichte 1 ist dann kann man<br />
** mit dem Lambertschen Absorbtionsgesetzt die Absortption von dickern/düneren Material berechnen <br> <math> \tau = [ \tau_0]^w </math><br />
*** w ... Dicke des Materials im Verhältnis zum norm Material<br />
** mit dem Beerschen Gesetz die Transmission von Meterial mit anderer Dichte berechnen <br><math> \tau = [ \tau_0]^c </math><br />
*** c... Das Verhältnis der neuen zur alten Dichte<br />
** kann man auch kombinieren zu (Lambert-Beersches Gesetz)<br />
** <math> \tau = [ \tau_0]^{c \cdot w} </math><br />
* Da sich die Transmission Multiplikativ zusammensetzt wird auch gerne mit dem logarithmus der Transmission gerechnet (optische Dichte)<br />
**<math> D = - lg \tau = lg \frac{1}{\tau}</math><br />
** Damit vereinfacht sich das Lambert-Beersche gesetz zu: <math> D = c \cdot w \cdot D_0</math><br />
* selbstverständlich sind die Transmission <math>\tau</math> und die optische Dichte D von der Wellenlänge abhänig ... zur Übersichtlichkeit wurde das in den Formeln nur weggelassen<br />
* Bei einem Papierbild kommt zu dem Filter noch die Reflexion an der Farboberfläche und an der Papieroberfläche<br />
** Beachte das Licht was an der erste Schicht wegreflektiert wird kann icht tiefer eindringen. Nur noch <math> (1-\beta)*S </math> dringt an Licht durch den ersten Filter!<br />
*** <math> \beta </math> ... Remmisionsgrad der ersten Farbe<br />
*** <math> S </math> ... Spektrale Verteilung der Lichtquelle<br />
<br />
= Farbmetrische Schnittstellen - Farbräume (GF a 49 - 55) =<br />
<br />
<pre><br />
Unterschiedliche bildgebende Systeme<br />
z.B. Farbkameras<br />
Farbscanner<br />
Spezialkameras<br />
</pre><br />
'''Widerspruch''' <math>\updownarrow</math> Farbmetrische Schnittstelle<br />
<pre><br />
Unterschiedliche Bildwiedergabesysteme<br />
"True-Color-Darstellung"<br />
- unterschiedliche Monitore, Beamer, Drucker etc.<br />
</pre><br />
<br />
== Leuchtdichte (Luminanz) ==<br />
<br />
* Luminanz Y ist die Strahlungsleistung, bewertet mit der spektralen Empfindlichkeitsfunktion des Auges für das Hellempfinden<br />
* Y ist Leistungsproportional, wenn Lichtzusammensetzung (Leistungsdichte <math>\Theta (\lambda))</math> konstant bleibt<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* Leuchtdichte berechnet sich nach dem ''Abneyschen Gesetz'':<br />
: <math> Y = L = k \cdot \underline L^T \cdot \underline F </math><br />
:* <math>\underline L^T - </math> Leuchtdichtebeiwert: gibt an wie groß der Beitrag jedes Farbwertes der Farbvalenz zum Helleindruck ist, abhängig vom gewählten Farbwiedergabesystem<br />
* Leuchtdichte L <math>\ne</math> Intensität I<br />
: <math> I = \frac 1 3 (R+G+B)</math><br />
<br />
* die perzeptuelle Antwort unseres Auges auf die Leuchtdichte wird Helligkeit (Lightness) genannt<br />
: <math><br />
L^{\star} = \begin{cases}<br />
116 \cdot \sqrt [3] {\frac Y {Y_n}} -16, & \text{wenn } \frac Y {Y_n} > 0{,}008856\\<br />
903{,}3 \cdot {\frac Y {Y_n}}, & \text{wenn } \frac Y {Y_n} \le 0{,}008856<br />
\end{cases}<br />
</math><br />
<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: Eine Quelle die nur 18% der Luminanz einer Referenz hat, erscheint uns immer noch halb so hell wie die Referenz </span><br />
<br />
== Gammakorrektur und Luma ==<br />
* '''Gammakorrektur:'''<br />
** Aufgrund der Ansteuerung von CRT Monitoren und der verwendeten Phosphore ergibt sich ungefähr eine quadratische Abhängigkeit der Luminanz vom Videosignal<br />
** Die Luminaz der drein einzelnen Farbkanäle muss den gleichen Verlauf aufweisen. Sie dürfen sich nur in ihren Maximalwerten unterscheiden!<br />
*** Sonst ist es nicht möglich die Helligkeit zu ändern und dabei die Farbe konstant zu halten<br />
** Die Gammakorrektur sorgt dafür das die Farbwiedergabe auf dem Monitor linear verläuft und nicht quadratisch<br />
*** Notwendig damit wir die gleich Wahrnehmung erzielen können als währe das Kamera-Monitor System nicht vorhanden<br />
<br />
*'''Luma:'''<br />
** Luma ist die gewichtete Summe der drei Gammakorregierten Farbwerte R',G',B'<br />
** Damit ist Luma nicht gleich Luminanz<br />
<br />
*'''Brightness'''<br />
** Brightness ist ein Begriff der beschreibt wie stark eine Fläche Licht emmitiert oder sie hell sie erscheint<br />
** Besitzt kein festes Maß und wird daher sehr frei verwendet -> HSL<br />
<br />
== Farbsysteme, Farbräume, reduzierte Farbräume ==<br />
* Die Intensität einer Farbe ist <math> I = \frac{R + G +B}{3} </math><br />
* Wählt man die Intensität konstant mit <math>I=\frac{1}{3}</math> so ergibt sich eine Ebene die den RGB-Farb Würfel Diagonal schneidet und durch die R,G,B Eckpunkte geht<br />
* Jede Farbkoordinate kann auf diese Ebene projeziert werden -> Ermöglicht die Nutzung dieser Ebene als einfache Farbtafel<br />
** Diese Ebene kann dann noch auf die 0RG- Fläche des RGB Würfels projeziert werden ohne das die Ordnung der Farben gestört werden würde -> Der Farbton einer Farbe lässt sich allein durch r und g beschreiben<br />
* in die rg-Ebene können nun alle in RGB - darstellbaren Farben und alles existierenden Farben eingetragen werden<br />
** Danach erkennt man das sich technisch mit dem RGB-System nur ein kleiner Teil der exisiterenden Farben realisieren lässt<br />
<br />
= Das Normvalenz- oder XYZ-System (GF a 76 - 86) =<br />
* Alle Farbwerte sollen durch positive Farbwerte darstellbar sein<br />
** Für Farbmessung von Interesse<br />
** Das XYZ- Dreieck muss den spektralen Kurvenzug voll umschließen<br />
* Eine weitere Forderung ist das die Leuchtdichte als unabhängige Komponete auftreten soll<br />
* Die Fläche des Dreiecks soll so klein wie möglich sein<br />
* Die dadurch berechnbaren Normalvalenzen sind physikalisch nicht erzeugbar -> Die Spektralwertkurven für das System müssen berechnet werden<br />
** Die Berechneten Spektralwertkurven sind stets nichtnegativ -> immer positive Transmissionsgrade und Sensorempfindlichkeiten<br />
[[Bild:NORMXYZ1.JPG]]<br />
* Mit dem XYZ-System kann man nun Farbdreiecke vergleichen und Bewerten<br />
** Abstände, Fehler und Systemeigenschaften sollten aber in einem empfindungsmäßig gleichabständigen Farbraum bewertet werden (u'v'w' und CIELab)<br />
* '''Optimalfarbkörper'''<br />
** Beschreibt die Grenze aller darstellbaren Körperfarben<br />
** Zur Erstellung schneidet man rechteckförmige Stückchen aus dem Spektrum von Idealweißem Licht aus<br />
<br />
== Das UVW-System ==<br />
* Informationsgehalt der Farbe für den Menschen hängt davon ab welche Farbunterschiede er wahrnehmen kann<br />
* Vor allem ist das interessant wenn Bildverarbeitungsprobleme auf der menschlichen Wahrnehmung formuliert sind<br />
* xy-Farbtafel hat starke Unterschiede zwischen örtlichen Abstenden und empfindungsmäßigen Abständen -> ungeeignet<br />
* erste Lösung<br />
** lineare Transformation<br />
** W' -> Helligkeit<br />
** U' -> Rot-Grün Bundheit<br />
** V' -> Gelb-Blau Bundheit<br />
** Ergebnis<br />
*** Wesentlich besseres Darstellung der Empfindung (Faktor 10 gegenüber dem XYZ-System)<br />
* verbesserte Lösung<br />
** verwenden einer nicht linearen Abbildung (Auge wird mit berücksichtigt)<br />
<br />
== L*a*b* oder CIELAB-Raum ==<br />
* Gegenfarbmodell<br />
* empfindungsmäßig gleichabständiger Raum<br />
* Grundsätzlich zur Angabe von Farbabweichungen verwendet<br />
** Geeignet zur Bewertung von Druckern, Monitoren und Abweichungen von Nachfärbungen<br />
* als Farbdifferenzmaß wird der euklidische Abstand benutzt (<1 nicht mehr Wahrnehmbar)<br />
<br />
== L*u*v* oder CIELUV ==<br />
* für additive Mischung vorgesehen<br />
* wie der CIELAB- Raum ein empfindungsmäßiger gleichabständiger Raum<br />
<br />
== YCbCr - Crominanzwertsystem ==<br />
* Entwickelt damit Farbfernsehen und S/W-Fernsehen Parallel betrieben werden konnten<br />
* Crominanzwerte<br />
** sind von Leuchtdichte befreite Werte<br />
** verschwinden für alle unbunten Farben<br />
** Cr= R-Y, Cg = G-Y, Cb = B-Y<br />
** Das System aus CrCbCg und Y ist überbestimmt => Es reicht die Übetragung von Cr , Cb und Y<br />
* Da das Auge auf Helligkeitsunterschiede empfindlicher reagiert als auf Farbunterschiede können die Crominanzwerte mit geringerer Auflösung übertragen werden<br />
<br />
== ΘSY - System ==<br />
* Der Bunttonwinkel Θ berechnet sich aus dem Verhältnis der Crominanzwerte Cb und Cr<br />
* Die Sättigung S ist der Betrag des Vektors CrCb<br />
<br />
== HSI - Farbraum ==<br />
* Intensität: <math> I= \frac{R+G+B}{3} </math><br />
* Sättigung: <math> S = 1 - 3 \cdot min (r,g,b) </math><br />
* Hue: <math> H= \left\{ \begin{matrix}\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B\le G \\ 2\pi -\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B>G \end{matrix}\right . </math><br />
* Raum ist nicht gleichmäßig gefüllt<br />
* bei kleinen Intensitäten I in Buntton und Sättigung Instabil<br />
* Es kann bei Farbmanipulationen dazu führen das es keine Entsprechungen im RGB gibt<br />
** Lösungen:<br />
*** Dachförmige Begrenzung des HSI Raums -> sehr Aufwendig<br />
*** Normieren der Intensitäten -> Bild kann ins dunkle verschoben werden<br />
*** Maximalwert setzen -> Falsche Farbwerte (werden ins unbunte verschoben)<br />
*** proportionales skalieren bis Farbe im RGB-Würfel liegt<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
<br />
== HSL - Farbraum ==<br />
* Gern für Computergrafik verwendet<br />
* einfache Beziehungen<br />
* Die Verwendeten Biegriffe H,S,L entsprechen nicht der Bedeutung in der Farblehre und Form des Raumes<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
* Buntton ist extrem instabil bei kleinen Sättigungen<br />
* Form des Raumes ist unpraktisch<br />
<br />
= Farbmessung (GF 1 - 11) =<br />
<br />
* Farbmessung = Ermittlung der drei zu einer Farbvalenz gehörigen Farbmaßzahlen<br />
* 3 Messmethoden: <br />
** Vergleichsmethode oder Gleichheitsverfahren<br />
** Spektralverfahren<br />
** Dreibereichsverfahren<br />
<br />
== Gleichheitsverfahren ==<br />
<br />
* Vergleiche:<br />
** Vorlage mit additivem Gemisch<br />
** Vorlage mit Farbmusterkarten (DIN-Karten)<br />
* unverzichtbar bei physiologischen Untersuchungen<br />
* aufwendig und bei kleinen Probandengruppen ungenau<br />
* d.h. für technische Messungen ohne Bedeutung<br />
<br />
'''Messbedingungen nach DIN:'''<br />
* helladaptiertes und blendfreies Sehen<br />
* unbunter Messraum<br />
* neutrale Gesichtsfeldumgebung mit gleicher oder etwas kleinerer Leuchtdichte als im Messfeld<br />
* gut ausgeruhtes und neutral gestimmtes Auge<br />
* farbnormalsichtiger Beobachter<br />
<br />
== Spektralverfahren ==<br />
<br />
* zu messende Farbvalenz = Summe spektraler Farbvalenzen<br />
* greift auf gemessene Normspektralwertkurven zurück<br />
<br />
# '''spektrale Messung zur Ermittlung der Farbreizfunktion <math>\varphi (\lambda) </math>'''<br />
#* Selbststrahler: direkte Messung der Strahlungsfunktion <math>\rightarrow \varphi (\lambda)= S (\lambda)</math><br />
#* remittierende Vorlage: Remissionsfunktion der Vorlage messen, d.h. Strahlungsfunktion S ist vorher zu bestimmen und aus <math>\varphi (\lambda)</math> heraus zu rechnen <math>\rightarrow \varphi (\lambda)= \beta (\lambda) \cdot S (\lambda)</math><br />
# '''farbvalenzmetrische Auswertung'''<br />
#* wenn <math>\beta (\lambda)</math> ermittelt wurde, kann jede beliebige (tabellierte) Lichtquelle <math>S^{\ast} (\lambda)</math>eingesetzt werden<br />
#: <math><br />
\begin{bmatrix}<br />
X\\Y\\Z<br />
\end{bmatrix}<br />
= k \cdot<br />
\begin{bmatrix}<br />
\int \bar{x} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{y} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{z} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda<br />
\end{bmatrix}<br />
</math><br />
#* Normierungskonstante k:<br />
#** Selbststrahler: nur Farbwertanteile gefragt, d.h. k ist beliebig<br />
#** Körperfarben: Y für mattweißen Körper = 100, d.h. <math>k=\frac{100}{\int {S(\lambda) \cdot \bar{y}(\lambda) d \lambda}}</math><br />
<br />
'''Messgeometrien:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bildergalerie (45°,8°,Transmission) </span><br />
<br />
* ''45°-Geometrie'': Beleuchtung unter 45° schließt Glanzeinfluss aus <math>\rightarrow</math> Sensor blickt senkrecht auf Probe<br />
* ''8°-Geometrie'': Beleuchtung diffus über Ulbricht-Kugel <math>\rightarrow</math> Sensor blickt unter 8° auf Probe; Messung mit/ohne Glanz möglich<br />
* ''Transmissionsgeometrie'': Probe wird durchleuchtet<br />
<br />
== Dreibereichsverfahren ==<br />
* die drei Farbwerte werden direkt photometrisch gemessen<br />
* Filter und spektrale Empfindlichkeite der Strahlungsempfänger müssen an die spektrale Bewertungsfunktion angepasst sein<br />
* '''Luther-Bedingung:''' <math> \tau_x(\lambda) = \frac{c_x \cdot x(\lambda)}{s_1(\lambda)}</math><br />
** <math> \tau_x(\lambda) </math> ... Filtertransmission<br />
** <math>s_1(\lambda)</math> ... Sensorempfindlichkeit (hier im ersten Kanal)<br />
** <math>c_x</math> ... Gerätekonstante<br />
** Für den Y und Z Kanal ist die Formel analog<br />
* Der notwendige Filter kann gut durch ein Set von Schmalbandigen Filtern realisiert werden<br />
<br />
== Spektralmaskenverfahren ==<br />
<br />
* spezielles Dreibereichsverfahren<br />
* Lichtzerlegung erfolgt mit einem Prisma<br />
* Das zerlegte Lich beleuchtet eine Maske (Papier, Plaste, Metal .... ne richtige echte Maske)<br />
* Messen der spektralen Verteilung (CCD-Zeile)<br />
* Ähnlich dem Spektralverfahren nur das das spektrum bereits im analogen entsprechend gewichtet wird<br />
<br />
== Metamerie ==<br />
* zwei Farbproben die bei einer bestimmten Beleuchtung gleich aussehen können bei einer anderen Beleuchtung ganz anderst aussehen<br />
* Der Metermarie-Index beschreibt diesen durch Beleuchtungswechsel entstehenden Farbwechsel<br />
* KEIN Maß für die Farbkonstantheit sondern für den Unterschied von zwei Proben<br />
* Berechnung erfolgt im L*a*b* Raum <br> <math> M_T = \sqrt {(L_{1T}-L_{2T}+L_{2B}-L_{1B})^2 +(a_{1T}-a_{2T}+a_{2B}-a_{1B})^2+(b_{1T}-b_{2T}+b_{2B}-b_{1B})^2 } </math><br />
** T ... Testlicht<br />
** B ... Bezugslicht<br />
** 1,2 ... Probennummern<br />
<br />
= Klassifikation von Messaufgaben (GF 82 - 86) =<br />
<br />
# Messung von objektiven Eigenschaften, die sich in der Veränderung spektraler Charakteristika niederschlagen<br />
#* vordergründig ist Zusammenhang zwischen Veränderungen in den physikalischen Eigenschaften von Interesse (z.B. Waferinspektion)<br />
#* Zusammenhang sollte eindeutig und von hinreichender Empfindlichkeit sein<br />
#* Wahrnehmung unterschiedlicher Farben eher Nebeneffekt<br />
# Überwachung der Stabilität von farblichen Erscheinungen<br />
#* ist bei einer oder mehreren Beleuchtungen zu überwachen<br />
#* absolute Farbmessung nicht nötig; "Anlernen" auf Farben genügt<br />
#* Abstände im Farbempfinden müssen sich in gleicher Weise in Veränderungen der Sensorsignale wiederspiegeln<br />
# absolute Farbmessung<br />
#* d.h. Ermittlung der korrekten Farbvalenz unter beliebigen Messbedingungen<br />
#* Spektralwertkurven müssen realisiert werden<br />
# Messung des spektralen Remissions- und/oder Transmissionsverhaltens von Materialien<br />
#* ausschließlich spektrale Messverfahren<br />
#* Messung der Strahlungsfunktion und der remittierten Leistungsdichte<br />
#* Berechnung der Farbvalenz bei beliebiger Beleuchtung und des Metamerie-Index<br />
<br />
'''steigende Ansprüche mit steigender Nummerierung'''<br />
<br />
= Einfache Farbkalibrierung (GF 16 - 41) =<br />
* Farben sollen möglichst exakt Wiedergegeben werden<br />
<br />
== Ausgleich von Beleuchtungseinflüssen ==<br />
* Körperfarben werden durch ihre Remmision bestimmt <math> \beta </math><br />
* Bei unterschiedlicher Beleuchtung sehen Farben unterschiedlich aus aber das Auge kann sich an die Beleuchtung adaptieren<br />
** Funktioniert bei Fotos aber nicht -> Beleuchtungsausgleich ist wichtig<br />
** Bei Farbvergleich noch viel mehr<br />
** Wird realisiert durch Weißabgleich (auf integraler Farbebene nicht möglich )<br />
* Direkte Vermessung der spektralen Eingenschaften der Kamera nicht möglich (Da Werte in Kamera bereits verrechnet werden um z.B. die negativen Anteile der Spektralkurven zu realisieren)<br />
** sehr Aufwendig (Kamera auseinanderbasteln um an die echten werte zu kommen + das durchgehen durch das Spektrum in kleinen Schritten)<br />
* Daher Verwendung von Testfarben<br />
** Führt auf Lösung eines linearen Gleichungssystem<br />
** Für menschliches empfinden -> Optimieren im CIELAB-Raum<br />
* Vorsicht bei nichtlinearen Funktionen zur Farbkalibrierung -> Kann bei zu wenig Testfarben zu total falschen Ergebnissen führen !!<br />
<br />
= Color Management (F CM 1 - 20) =<br />
* verschiedene Geräte können verschiedenen Farben darstellen<br />
* verschiedene Geräte verwenden andere Grundfarben zum mischen<br />
* Mit Hilfe von Profilen (Tabellierung der Farbwerteumrechnungen) wird eine Konvertierung der Farben vom Geräteraum in den CIELab Raum bzw umgekehrt durchgeführt<br />
* in den Profilen wird auch vermerkt welche Farben darstellbar sind und welche nicht<br />
* Somit kann man eine "Druckvorschau" auch auf einem Monitor erreichen (natürlich nur für Farben die auf beiden Geräten dargestellt werden können)<br />
** Jedes Mapping der Farben (Gamut-Mapping stellt somit einen Kompromiss dar)<br />
**# Perceptual (Die Farbbeziehungen untereinander werden erhalten) Komprimierung des Gamuts bis er in den zur Darstellung verwendeten passt<br />
**# Colometrisch -> Exakte Reproduktion aller in beiden Gamuts darstellbaren Farben<br />
**## relativ -> weiß wird auf weiß abgebildet und alle anderen Farben relativ dazu<br />
**## absoult farbmetrisch<br />
**# Saturation, alle Farben außerhalb des Zielgamuts werden zugunsten der Sättiung verändert<br />
* Kalibrierung -> Versetzen des Gerätes in einen definierten, reproduzierbaren Zustand<br />
* Charakterisierung -> Modellierung eines Gerätes welches sich ein einem stabilen definierten Zustand befindet<br />
<br />
= Kameras (GF_Ka 1 - 12) =<br />
<br />
'''Einsatzfelder:'''<br />
* ortsaufgelöste Messung von Farbe<br />
* Aufnahme und Wiedergabe von True-Color Bildern<br />
* Aufnahme farbiger oder mehrkanaliger Bilder für die Verarbeitung/Analyse (Qualitätssicherung)<br />
* Photogrammetrische Anwendungen (Lösung des Korrespondenzproblems)<br />
* Radiometrische Anwendungen (Messen im Spektralbereich)<br />
<br />
'''Dreibereichsmessung:'''<br />
* setzt die Trennung von drei sich überlappenden Spektralbereichen voraus, die dann wellenlängenabhängig zu bewerten und zu integrieren sind<br />
<br />
== Dreichip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* optische Kanaltrennung und Bewertung<br />
* beste Bildqualität, da hohe Auflösung in allen drei Kanälen<br />
* keinen örtlichen Versatz der Pixel in den drei Farbauszügen<br />
* Filter einfacher und präziser zu realisieren<br />
* befinden sich z.B. als dichroitische Spiegel auf den Strahteilerprismen<br />
<br />
<span style="color:#ee0000;"> \\ Hot-Mirror-, Cold-Mirror-Korrektur????</span><br />
<br />
== Einchip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: doppelte Anzahl grüner Pixel wegen Schärfe, MTF des Auges </span><br />
<br />
* örtliche Kanaltrennung und Bewertung<br />
* Streifen- oder Mosaikfilterstrukturen auf den einzelnen Pixeln zur örtlichen Signaltrennung<br />
* 3 oder 4 unterschiedliche spektrale Auszuüge zur Erzeugung der Farbinformation<br />
* Matrix selbst kann Interline- oder Frame-Transfer-Matrix sein<br />
* kostengünstiger und kleiner als Dreichip-Kameras<br />
* Probleme:<br />
** Farbvalenzen aus örtlich versetzten Auszügen (z.B. Farbsäume an Kanten)<br />
** nicht korrigierbare Fehler aus Nichtlinearitäten und Dunkelsignalen bei der Bildung von Mischsignalen<br />
<br />
'''generelle Anforderungen an die Signalverarbeitung:'''<br />
<br />
* primäre Kamerasignale stellen keine farbmetrische Schnittstelle zur Verfügung, d.h. alle Bewertungsfunktionen sind nicht-negativ (Spektralwertkurven fordern aber negative Wichtungen)<br />
* je nach realisierten Filtern und Genauigkeitsansprüchen <math>\rightarrow</math> lineare Matrizierung (meist Kameraintern) oder komplexere Approximation<br />
* bei hohen Genauigkeitsansprüchen <math>\rightarrow</math> Umgehung der Kamerainternen Matrizierung, weil Verstärkungsfaktoren, Toleranzen, Temperaturdrift, Langzeitstabilität etc. nicht bekannt sind<br />
* insgesamt geringe Nichtlinearitäten der CCD's können in den Ansteuerbereichen der einzelnen Kanäle zu wesentlichen Fehlern führen:<br />
** Farbvalenz ändert sich kontinuirlich mit der Shutterzeit<br />
** Pixelweise DSNU- (Dunkelsignalungleichförmigkeit) und PRNU- (Hellsignalungleichförmigkeit) Korrektur vor Erzeugung der Farbvalenz erforderlich, da sich Festmusterrauschen nicht nur auf Intensität sondern auch auf Farbart auswirkt<br />
** Dunkelsignal verdoppelt sich alle 7K, Gleichanteil wird aber geklemmt<br />
** Lichtquellentyp und Langzeitverhalten wirken sich nicht nur Intensität sondern auch auf Farbtemperatur aus<br />
<br />
'''4 spektrale Bereiche:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* vorteilhaft zur Erzeugung von Farbdifferenzsignalen für die TV-Kompatibilität<br />
* im Field-Integration-Mode werden Mischsignale gebildet, die die erforderliche Signalkorrektur für hohe Ansprüche behindern<br />
* Nichtlinearität der Ausgangsverstärker wirkt sich auf Korrektur der primären Mischsignale aus<br />
<br />
== Sequentielle Einchip-Kamera ==<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* zeitliche Kanaltrennung und Bewertung<br />
* relativ genaue Approximation der Spektralwertkurven möglich<br />
<br />
== Elektrisch steuerbare Filter ==<br />
<br />
* über die Wellenlängenabhängigkeit der Eindringtiefe der Photonen und die Steuerbarkeit der Tiefe der Potentialmulden der sensoren lassen sich steuerbare spektrale Empfindlichkeiten erzeugen<br />
<br />
= Verarbeitung von Farbbildern (1 - 31) =<br />
* Das unabhängige verarbeiten der Farbkanäle eines Farbbildes führt zu Nebeneffekten wie Farbsäume<br />
* Die höhere Vielfalt des mehrdimensionalen Raumes von Farbbildern kann Vorteilhaft genutzt werden für Pixelklassifikation, Segmentierung <br />
* Abstände, Mittlere Werte und örtliche Veränderungen sind in empfindungsmäßig gleichabständigen Räumen zu definieren und zu bewerden<br />
<br />
== Histogramme und Statistiken für Farbbilder ==<br />
* Farbbilder liefern dreidimensionale Häufigkeitsverteilungen im Farbraum → können als Approximation der entsprechenden 3D-Dichten verwendet werden<br />
* statistische Zusammenhänge zwischen den Kanälen werden in mehrdimensionalen Dichten betrachtet<br />
** Für Handauswertung meist nur 2D-Dichten, wegen der Übersicht<br />
** Für maschinelle Auswertung können diese dichten auch dreidimensional werden<br />
** für die parametrische Darstellung der Cluster werden meist multivariante Gaußverteilungen eingesetzt<br />
*** Einr Gaußverteilung ist für die Beschreibung eines Bildes mit mehreren Objekten nicht geeignet<br />
*** Die Kovarianzmatrix einer solchen "Approximation" kann aber gut zur Einschätzung der Streuung und der Mittelwerte in dem Bild eingesetzt werden<br />
<br />
=== Histogramm - Modifikationen ===<br />
* Contrast Streching, Polygonal Image Scaling, Histogram-Equalisation Siehe [[Grundlagen der Bildverarbeitung und Mustererkennung#homogene Punktoperationen|Grundlagen der Bildverarbeitung]]<br />
* Manipulation kann in verschiedenen Farbräumen ausgeführt werden (RGB,HSI,...)<br />
** In nicht empfindungsmäßig gleichabständigen Räumen muss die Transformation nicht unbedingt zum Ziel führen<br />
==== Manipulation im Farbraum RGB ====<br />
* ist der Farbraum in dem die Daten häufig vorliegen<br />
* Wirkung kann auf Grund der starken korrelation der RGB Werte bei geringen Sättigungen ausbleiben<br />
* Farbverfälschung wenn einzelne Kompontenen unabhänig von einander behandelt werden<br />
* hohes apriori-Wissen notwendig<br />
* wenn Falschfarbdarstellung gewünscht ist kann dies das mittel der Wahl sein<br />
<br />
==== Manipulationen im Farbraum HSI ====<br />
* unproblematisch in Bezug auf Farbverfälschungen<br />
* Zielsetzungen können sich einfacher beschreiben lassen (ähnelt der Beschreibung von Farbe durch den Menschen)<br />
* unabhängige Komponente (Intensität)<br />
* Kontrastverbesserung durch Sättigungsausgleich ohne Farbveränderung möglich<br />
* Stabilitätsprobleme nahe den unbunten Farben<br />
# '''Ausgleich des Intensitätshistogramms'''<br />
#* Werte möglich die keine entsprechung mehr im RGB haben → müssen geeignet herruntergerechnet werden<br />
#* bei kleinen Intensitäten sind die Bunttöne instabil → ausschließen von Veränderungen<br />
# '''Sättigungsausgleich'''<br />
#* Modifikation der Sättigung unter Beibehaltung des Bunttones<br />
#* Bei kleinen Sättigungen und kleinen Intensitäten ist der Buntton instabil → Ausschließen<br />
#* Histogramm über alle Bunttöne ist häufig verschmiert → besser Histogramm über Buntton Segmente<br />
# '''Bunttonausgleich'''<br />
#* Ziel sind Farbfalschbilder um Objekte besser unterscheiden zu können<br />
#* bei zu großen Buntton Änderungen wird die Interpretierbarkeit nur bei homogenen Flächen verbessert, meist wird sie eher verschlechtert<br />
#* Unsicherheit des Bunttons → bei geringen Sättigungen und Intensitäten ist der Buntton auszuschließen<br />
<br />
== segmentgesteuerte Farbvalenztransformationen ==<br />
* Globale Statistiken werden häufig durch nicht interressante Objekte dominiert<br />
* Ausweg ist das Betrachten von Ausschnitten und anwenden der Transformationen auf die Ausschnitte<br />
* erfordert zu erst das Segmentieren des Bildes<br />
<br />
= Referenzfreie Farbadaption auf Basis des 3D-Histogramms (HuS 32 - 39 ) =<br />
* unter bestimmten umständen kann auf eine Kalibrierung der Kamera mittels Referenzfarben verzichtet werden<br />
* Zur Korrektur soll die parametrische Approximation der 3D-Histogramme durch multivariante Gaußverteilungen genutzt werden<br />
== Vorraussetzungen für die Anwendbarkeit ==<br />
* Strukturierte Szene mit mehreren ntürlichen Objekten, die gleichmäßig über den Bunttonwinkel verteilt sind und durchschnittlichen Sättigungsgrad aufweisen<br />
* Langgestreckter SW-Prozess im Vergleich zum Rot-Grün und Blau-Gelb Prozess<br />
<br />
== Vorgehensweise ==<br />
* Korregieren von "vermutlichen" Abweichungen des Bildes in der Unbuntheitsachse<br />
* Dazu Ermitteln der Hauptachsen mit PCA<br />
* Drehen der Hauptachse in den SW-Prozess<br />
* Rücktransformation und Darstellung<br />
<br />
= Histogrammbasiertes Farbmatching(1 - 15) =<br />
* Histogramme sind im 2D Bild invariant gegenüber Rotation, Translation und Maßstab (wenn die Angaben relativ erfolgen !)<br />
* Histogramme sind auch relativ stabil gegenüber moderaten Verdeckungen und 3D-Rotation<br />
* Grobe Quantisierung der Histogramme um Fehlertoleranz zu erhöhen<br />
* Damit können Histogramme zur Objekterkennung eingesetzt werden → Bezeichnet als Color Indexing<br />
<br />
== uniformes Binning ==<br />
* einteilen der Farben in ein gleichverteiltes Histogramm<br />
* Suche in einem Bild den Ausschnitt welcher eine minimale Distanz zum Referenzbild hat<br />
* Als Abstandsmaß verwendet werden die Histogramme genutzt<br />
** Summe der Quadratischen Differenzen (Histogramme als Vektoren betrachtet und dann den euklidischen Abstand berechnet ohne Wurzel)<br />
** Earth Movers Distance (Berechnen was sich wohinverteilt haben könnte ... erfordert die Lösung des Transportproblems)<br />
* einfach aber die Bins ändern sich Sprunghaft, vor allem dann wenn Farben knapp an den willkürlichen Bingrenzen liegen<br />
<br />
== Unscharfe Chroma-Orts-Histogramme ==<br />
* Nachteile des uniformen Binning sollen überwunden werden<br />
* Alle Pixel bekommen eine unscharfe Klassenzugehörigkeit (Binnzugehörigkeit) je nach Abstand zum entsprechenden Binnmittelpunkt (wie bei [[Softcomputing|Fuzzy-C-Means]])<br />
** Ein Parameter ermöglicht dabei die Verunschärfung einzustellen (von total unscharf bis zum festen Binning)<br />
* Auch der absolute Ort der Segmente (aus denen die Histogramme erstellt werden) soll mit verwendet werden<br />
** Dazu wird das Bild in entsprechende Bereiche geteilt (8x8,16x16,...)<br />
** Alle Blöcke werden durchnnummeriert<br />
** Auch hier kommt es zu harten Umbrüchen wenn Pixel knapp an den Grenzen liegen → auch hier verunschärfen<br />
** Welche Indizees haben die Nachbarn? (Nachbarschaft in den Indizees der Blöcke heißt nicht gleich 2D-Nachbarschaft)<br />
<br />
== Cluster mittels Graphenansatz ==<br />
* Ziel ist es:<br />
** Sprunghafte Änderung der Binns zu verhindern<br />
** wenige Merkmale zu verwenden<br />
** Eng beieinander liegende Maxima trotzdem unterscheiden zu können<br />
* Verwendete Bilddaten:<br />
** Farbwinkelhistogramm, wenn Sättigung der Farben ausreichend ist<br />
** Intensitätsdiagramm, wenn Sättigung der Farben zu gering wird<br />
* Vorgehen:<br />
** Jeder Wert im Histogramm zeigt auf den Größten in seiner Nachbarschaft<br />
** Das Maximum zeigt auf sich selbst → Wird Merkmal<br />
** Weiteres Merkmal ist die Fläche die zum Maximum gehört (Nachbarn die direkt bzw. indirekt auf das entsprechende Maximum zeigen)<br />
* Match:<br />
** Finde ein Tupelpaar (Maxima in Referenzhistogram und Suchhistogram mit dem geringsten Abstand)<br />
** Ziehe gemeinsame Fläche von jedem Tupel des Paares ab<br />
** summiere gemeinsame Fläche (?)<br />
** Wiederhole bis sich keine Tupelpaare mehr bilden lassen<br />
** beziehe die laufende Summe auf das Maximum der Summe der ursprünglichen Flächen<br />
<br />
= Störunterdrückung (SU 1 - 16) =<br />
* Für nachfolgende Verarbeitungsschritte ist die Störunterdrückung sehr wichtig<br />
* Verschiedene verfahren der Rauschunterdrückung sind in [[Grundlagen der Bildverarbeitung und Mustererkennung#Lokale Operatoren zur Bildverbesserung (LOa 1 - 44) |BV]] eingeführt worden<br />
<br />
== Störunterdrückung durch Faltungsfilter ==<br />
* Anwendung wird einfach vektoriell durchgeführt (als würde man drei unabhängige Bilder gleichzeitig Filtern wollen)<br />
* es entstehen neue Farbtöne an den Übergängen zwischen Farben<br />
* im HSI Farbraum ist eine getrennte Betrachtung der Farbe und der Sättigung/Intensität möglich<br />
* Buntton ist zyklisch → muss bei der Mittelung beachtet werden<br />
* in der Farbe kann stärker gemittelt werden als in der Helligkeit (Auge nimmt Farbveränderungen schlechter wahr)<br />
* Komplexe Zahlen bieten sich hier als Rechenmittel an<br />
<br />
== adaptive gewichtete Mittelung ==<br />
* detailerhaltende Fähigkeiten von Filtern wegen der Farbsäume besonders von Interesse<br />
* Abstände verkomplizieren sich im Vergleich zu Grauwertbildern (Vektorabstandsmaße, Winkeldifferenzen,...) <br />
* Vorgehen nach dem Berechnen des Abstandes dann wieder Analog zur Grauwertfilterung<br />
<br />
== Medianfilterung ==<br />
* Problem bei der Übertragung des Rangordnungsgedankens auf Vektoren<br />
** Komponentenweises Vorgehen ist nicht geeignet (absolute Farbverfälschungen möglich)<br />
** Suche des besten Vertreters des SETS (wenn der verwendete Media im SET ist werden keine zu falschen Farben gewählt/gesetzt)<br />
*** kleinste Abstandssumme zu allen anderen Pixeln<br />
<br />
== Kombination von Averaging und Medianfilterung ==<br />
* Medianfilter ist gut für Impulsrauschen, schlecht bei Gauß hier ist Average gut<br />
* Bei den Filtern gibt es keinen unterschied zu den Grauwertbildern (unterschied besteht nur in der Realisierung der verwendeten Media/Average Filter nicht in ihrere Kombination)<br />
<br />
== Vektor-Richtungs-Filter ==<br />
* '''Basic Vecotr Directional Filter'''<br />
** Winkel zwischen Farbvalenzen als Distanzmaß<br />
** Ergebnis ist die Farbvalenz mit der kleinsten Winkeldifferenzsumme zu allen Valenzen des Fensters<br />
** Achromatische Rauschkomponenten werden nicht beseitigt<br />
* '''Generalized Vector Directional Filter '''<br />
** Suche nach den besten Vektoren aus Sicht der Richtung<br />
** Medianfilterung der Beträge der Vektoren<br />
* '''Directional Distance Filter'''<br />
** Vermeiden der Ineffizenz des GVDF Filters durch ein gemischtes Distanzmaß (Betrag und Winkel gleichzeitig)<br />
<br />
= Kantendetektion in Farbbildern (1 - 21) =<br />
* Wichtig für Segmentierung, Bildanalyse und Bildverstehen<br />
* [[Grundlagen der Bildverarbeitung und Mustererkennung#Kantendetektion (LK 1 - 38)| Kantenfilter]] bereits aus BV bekannt<br />
# '''Vektrogradient'''<br />
#* Berechnen der Jacobi-Matrix<br />
#* Wurzel aus dem größten Eigenwert ist der Vektorgradient<br />
#* Extrem Rechenaufwendig<br />
# '''Mittelwert der Richtungsableitungen'''<br />
#* Entspricht dem Gradienten im Intensitätsbild<br />
#* Zwei engegengesetzte Gradienten in unterschiedlichen Farben können sich gegenseitig aufheben → der Gradient der dritten Farbe dominiert egal wie klein er ist<br />
# '''Maximaler Gradient'''<br />
#* Suche nach dem Gradienten mit dem größten Betrag<br />
#* Korrelation der einzelnen Gradienten ist nicht von Bedeutung<br />
<br />
= Farbpixelklassifikation (Farbpixelklassifikation 1 - 21) =<br />
* Die Farbvalenzen bilden die Merkmale der Pixel<br />
* Anzustrebende Eigenschaften<br />
** Gute Beschreibung der Klassencluster und gute Trenneigenschaften<br />
** Einfache Belehrbarkeit (Aus Beispielen oder Expertenwissen)<br />
** Echtzeitfähigkeit<br />
** möglichst frühe Stufe der Verarbeitungskette ("Anspruchslosigkeit an das Bild")<br />
** Nutzen von Klassenzugehörigkeitsmaßen<br />
<br />
== optimaler Klassifikator ==<br />
* basiert auf dem Bayes-Theorem<br />
* findet die optimale Klassenentscheidung<br />
* Jeder Datenpunkt wird in die Klasse eingeordnet zur der er am Wahrscheinlichsten gehöhrt und bei der er die kleinsten Kosten für die anderen Klassen verursacht<br />
** Benötigt eine Risikofunktion die Angibt wie groß die Kosten bei Fehlklassifikation zwischen zwei Klassen sind<br />
*** Meist unbekannt und deswegen wird davon ausgegangen das die Kosten für jede Fehlklassifizierung gleich sind<br />
*** Kosten können durchaus auch bei richtiger Klassifikation definiert werden<br />
** Benötigt die Wahrscheinlichkeitsverteilung der Klassen im Raum (Meist unbekannt → Problem)<br />
*** können beliebig sein werden aber meist durch Gaußfunktionen approximiert<br />
*** in der Lernphase werden die Parameter dieser Verteilung geschätzt<br />
* Da Wahrscheinlichkeitsverteilung meist unbekannt ist, wird der Klassifikator ehr genutzt um einen anderen Klassifikator zu bewerten, wenn man eine bestimmt Wahrscheinlichkeitsverteilung festlegt (wie optimal ist der andere Klassifiaktor)<br />
<br />
== Maximum-Likliehood-Klassifikator ==<br />
* im Ansatz wie optimaler Klassifikator<br />
* setzten der Risikofunktion für alle Fehlklassifikationen auf einen konstanten Wert<br />
* verwenden von multivarianten Gaußdichten zur Beschreibung der Klassen<br />
* Entscheidung wird nur noch nach der a posteriori Wahrscheinlichkeit und der Klassen Verteilung gefällt<br />
<br />
== Malanobis-Abstandsklassifiaktor ==<br />
* schränkt den optimalen Klassifikator noch weiter ein im vergleich zum MLK Klassifikator<br />
* Kostenfunktion für Fehlklassifikation ist konstant für alle Fehlklassifikationen<br />
* Die a posteriorie Wahrscheinlichkeit für das auftreten der Klassen sein für alle Klassen gleich<br />
* Die Kovarianzmatrizen der Gaußverteilung der Klassen sind ähnlich<br />
* Damit ist die zuordnung zu den Klassen nur noch vom Abstand zu den Klassenzentren bestimmt<br />
** Abstandsmaß ist die Mahalanobis-Distanz<br />
<br />
== Gaußklassifikator und Kernel-Densitiy-Klassifikator ==<br />
* schränken noch weiter ein<br />
# '''Gaußklassifikator'''<br />
#* keine Kovarianzen mehr in der klassen Verteilung → Kugelförmige Klassenverteilungen<br />
# '''Kernel-Density-Klassifikator'''<br />
#* Spezialfall von Gauß-Mischverteilungen<br />
#* [... was genau der Macht frage ich in der Konsultation mal nach ... im Skript steht nix brauchbares]<br />
<br />
== LUT-Klassifikator ==<br />
* direktes Verwenden der Stichprobenhistogramme<br />
* erforder Closing im Merkmalsraum da nicht alles durch die Stichproben abgedeckt werden wird<br />
<br />
= Clusterverfahren (Farbpixelklassifikation 19 - 29) =<br />
* Ziel ist es komplexe Klassenbeschreibungen durch mehrere parametrische Einzelcluster zu approximieren<br />
* Beliebig komplexe Klassenformen lassen sich so Speichereffizient beschreiben<br />
* trotz Komplexer Beschreibung bleibt eine weiche Klassengrenze möglich<br />
<br />
== Erzeugen der Cluster ==<br />
=== Radiusrestriktionsmethode ===<br />
* keine Startpartition erforderlich<br />
* indirekte Optimierung: Zielfunktion dient nur der Bewertung der fertigen Partition<br />
* Ablauf:<br />
*# Erstes Element initialisiert das erste Cluster<br />
*# Alle Elemente werden einem Cluster zugeordnert wenn der Abstand zum Clusterzentrum unterhalb eines bestimmten Wertes liegt<br />
*# Für alle Elemente die damit ausserhalb der Cluster liegen wird ein neuer Cluster angelegt<br />
*# Wichtig ist eine gute Radiusschätzung der Cluster (Varianz der Stichprobe durch Anzahl der gewünschten Cluster)<br />
*# als Gütefunktion nutzt man die Quadratische Abweichung von den Clusterzentren<br />
<br />
=== Minimaldistanzmethode ===<br />
# Ausgangspunkt ist eine nur die Radiusrestriktionsmethode erstellte Partition<br />
# Alle Klassen Mittelpunkte werden neu Berechnet<br />
# Berechnen einer neuen Minimaldistanzpartiton anhand einer gewählten Metrik<br />
# Ein Abbruchkriterium entscheidt über das weitere vorgehen<br />
#* Kriterium für Partition ist besser geworden → mache Weiter<br />
#* Anzahl der Interationschritte überschritten → Abbruch<br />
#* Anzahl der Interationschritte noch nicht überschritten && Kriterium für Partition ist gleich geblieben → mache weiter<br />
#* Kriterium für Partition ist schlechter geworden → breche ab<br />
<br />
=== k-Means-Austauschverfahren ===<br />
# Ausgangspunkt ist eine Startpartition<br />
# Merkmalsvektoren umgruppieren wenn die distanz zu einem anderen Klassenzentrum kleiner ist als zum aktuellen<br />
# Neu berechnen der Klassenmetriken<br />
# Abbruch wenn anzahl der Interartionsschritte überschritten ist oder keine Umgrupierung mehr erfolgt<br />
* Meist eingesetzt wird die Mahalanobis-Distanz → Hypereliptische Cluster die sich wunderbar eignen langgestreckte Verteilungen zu approximieren<br />
= Trennfunktionsklassifikatoren (Farbpixelklassifikation 30 -39) =<br />
* Bei gegen Null gehenden Verteilungsdichten trangen weit entfernte Regionen keine Aussagekraft mehr → daher ist es Angebracht eine Rückweisungsklasse einzuführen<br />
<br />
== Mahalanobis ==<br />
* Verwenden der Mahalanobis-Distanz zur Klassifikation<br />
* wenn die Hauptdiagonale der Kovarianzmatrix >> als die restlichen Matrixelemente<br />
** Vereinfachung des Distanzmaßen möglich zu einem achsenparallelen Elipsoiden<br />
* wenn Streuung der einzelnen Merkmale gering ist vereinfacht sich der Ellipsoid zu einer Kugel (euklidisches Abstandsmaß)<br />
* wenn Streuung in den Klassen etwa gleich Groß ist können die Klassenspezifischen Skalierungen entfallen<br />
<br />
== Hyperquader-Klassifikation ==<br />
* Zur Zuordnung sind nur noch Intervalltests notwendig<br />
* Sehr grobe approximation der Klasse da meist elliptische Datenverteilungen auftreten<br />
* Funktioniert gut bei dekorrelierten Merkmalen → achsenparallele Ellipsen<br />
* schnell und einfach<br />
* kann eingesetzt werden um die Überlappung von Klassen zu abzuschätzen<br />
<br />
== Decision-Tree-Klassifikator ==<br />
* Verwenden einfacher Schwellen zur Abgrenzung der Klassen<br />
* Klassenbeschreibungsräume werden durch meherere Grenzen beschrieben<br />
* Effiziente Beschreibung erfolgt mit Bäumen<br />
<br />
== Linear Klassifikator → Hyperebene ==<br />
* Trennen des Merkmalsraumes mittels Hyperebene in zwei Halbräume<br />
* Separierbare Zweiklassenprobleme sind damit lösbar<br />
* Nichtlineare Klassengrenzen können stückweise lineare Aproximation mit mehreren Teilebenen gelöst werden<br />
* mittels Gradientenabstieg wird die Hyperebene angepasst<br />
* Eeiterentwicklung ist die SVM<br />
<br />
== Support Vector Machines ==<br />
* Maximierung des Abstandes der Trennebene von den Klassenrepresentanten<br />
* Transformation in einen höherdimesnionalen Raum um linear sepparieren zu können<br />
<br />
== k-Nächster-Nachbar-Klassifikator ===<br />
<br />
= Neuronale Klassifikatoren (Farbpixelklassifikation 40- 45) =<br />
= Segmentierung (Seg 1 - 8) =<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Grundlagen_der_Farbbildverarbeitung&diff=6998Grundlagen der Farbbildverarbeitung2009-03-17T13:19:42Z<p>DarkGhost: /* Linear Klassifikator → Hyperebene */</p>
<hr />
<div>Link zum [http://www.zbs-ilmenau.de/intern/vip-toolkit/index.php Vip toolkit]<br />
= Einführung (GF_a 8 - 47) =<br />
<br />
== Geschichtliches zur Farbe ==<br />
<br />
=== Newton ===<br />
<br />
* 1672: New Theory about Light and Colours<br />
** Sonnenlicht = Mischung einzelner Farben<br />
** Spektralfarben sind objektive Eigenschaft des Lichtes<br />
<br />
[...]<br />
<br />
=== Goethe ===<br />
<br />
[...]<br />
<br />
== Begriff der Farbe ==<br />
<br />
* '''Farbe im engeren Sinn, stellt eine spezielle menschliche Sinneswahrnehmung dar'''<br />
* <math>\Phi_i = \int_{\Delta \lambda_i} \varphi_{\lambda} (\lambda) d \lambda</math><br />
* Leistungsdichte <math>\phi (\lambda)</math> stellt dagegen den Farbreiz dar, der die Farbempfindung hervorruft<br />
* Vektoren <math>\underline \Phi</math> sind je nach Dimension mehr oder minder genaue Approximationen des Farbreizes<br />
<br />
* Orientierung am menschlichen visuellen System und die Betrachtung psychologischer und physiologischer Grundlagen sind von Interesse:<br />
** zur richtigen Bewertung der Schwierigkeiten und Herausforderungen bei der Schaffung technischer Lösungen<br />
** zur Anpassung technischer Lösungen der Bildwiedergabe an das visuelle System<br />
** zur Nutzung optimaler Naturprinzipien für technische Lösungen<br />
** weil technische Systeme im allgemeinen auf dem inneren Modell des Menschen von der Welt beruhen und dieses Modell in hohem Maße durch den visuellen Kanal des Menschen beeinflusst ist<br />
** weil optoelektronische Sensoren, Bildverarbeitung und Bildanalyse wichtige Schnittstellen zwischen Mensch und Maschine darstellen<br />
**weil viele Objekteigenschaften durch visuelle Eindrücke beschrieben werden<br />
<br />
* menschliches Auge kann ca. 100 Graustufen / ca. 300 000 Farben unterscheiden<br />
<br />
* Drei grundsätzliche Anwendungen von Farbinformation:<br />
** Pseudokolorierung<br />
** Falschfarbendarstellung<br />
** Echtfarbdarstellung (True Color) <math>\rarr</math> hier Schwerpunkt<br />
<br />
== Farbtäuschung ==<br />
<br />
* Zuordnung zwischen Physik und Wahrnehmung nur eindeutig wenn bunte Dinge isoliert betrachtet werden<br />
* Werden bunte Objekte in bunte Umgebungen eingebettet/bewegt, dann können abweichende Farbwahrnehmungen auftreten, so genannte Farbtäuschungen<br />
* es existieren unterschiedliche Arten solcher Täuschungen:<br />
** ''Farbinduktion oder simultaner Farbkontrast'' (Farbe wird durch ihre Umgebung modifiziert)<br />
** ''Farbkonflikt'' (es konkurrieren verschiedene Sehinformationen miteinander)<br />
** ''Subjektive Farben'' (es werden bunte Farbtöne wahrgenommen, die nicht vorliegen)<br />
<br />
'''Simultaner Farbkontrast:'''<br />
* erstmals 1839 beschrieben<br />
* wo der Effekt entsteht (Auge, Cortex) ist unklar<br />
<br />
'''Farbinduktion:'''<br />
* bei kleinteiligen, sich wiederholenden Strukturen erfolgt Angleichung<br />
* kann zur Rauschunterdrückung oder zur Unterdrückung von Feintexturen zugunsten der Erkennung größerer Objekte wichtig sein<br />
<br />
'''Farbkonflikt:'''<br />
* Formen und Strukturen konkurrieren mit Farben ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf White'sche Illusion])<br />
<br />
'''Subjektive Farben:'''<br />
* durch Bewegung ist es möglich Farben zu erzeugen die ursprünglich nicht vorhanden waren ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf Drehwurm in Farbe])<br />
<br />
== Farbwahrnehmung beim Menschen ==<br />
<br />
[...]<br />
<br />
=== Rezeptive Wahrnehmung ===<br />
* 1807 stellte Young die Hypothese auf das Farbsehen auf drei Arten von Sinneszellen beruht (rout,grün,blau)<br />
* erst 1964 konnten dies bewiesen werden, durch die Messung der Absorptionsspektren<br />
*[[Datei:Pdt-kurven.svg]]<br />
<br />
=== Postrezeptive Wahrnehmung ===<br />
* Mit dem 3 Farbenmodell konnten einige psychologische Erscheinungen nicht erklärt werden<br />
** Es werden 4 Farben als besonderst "rein" empfunden (Rto, Geln,Grün, Blau)<br />
** Unbunte Farben werden werden als das fehlen von Farben wahrgenommen<br />
** Schwarz schein gleichberechtigt zu Weiß<br />
** keine wahrgenommene Farbe erscheint zugleich rötlich und grün<br />
* das führte zur Gegenfarbentheorie die anfangs nur Psychologisch begründet war 1958 aber physiologisch Nachgewiesen werden konnte<br />
** Rot - Grün<br />
** Gelb - Blau<br />
** Schwarz - Weiß<br />
* → CIELab-Farbraum<br />
<br />
=== Kortikale Kodierung ===<br />
* Weder die 3 Farbentheorie noch die Gegenfarbentheorie beschreiben die bewusste Wahrnehmung des Menschen<br />
* Deshalb erweitertes Modell<br />
** Farbton / Buntton beschreibt die als besonderst rein empfundenen Spektralfarben<br />
** Sättigung beschreibt wie stark eine Farbe verblasst ist<br />
** Helligkeit beschreibt, wie hell oder dunkel eine Farbe ist<br />
* Wo/Wie genau die neuronale Verarbeitung erfolgt, ist noch nicht sicher belegt<br />
<br />
== Die Ordnung in der Welt der Farben ==<br />
* Newton kannte die Wellenlänge noch nicht → er ordnete die Farben nach dem Regenbogen<br />
* Goethe verwendete das Gegenfarbenmodell<br />
* Munsell schlug 1905 ein Farbordnungssystem vor bei dem alle Abstände zwischen den Farben Empfindungsmäßig gleich sind<br />
** führt zu einem geometrisch nicht regelmäßigen Körper<br />
<br />
== Das Modell der Farbe ==<br />
* '''Definition'''<br />
** Farbe ist diejenige Gesichtsempfindung eines dem Auge strukturlos erscheinenden Teils eines Gesichtsfeldes durch die sich diser Teil bei einäugiger Betrachtung mit unbewegtem Auge von einem gleichzeitig gesehenen ebenfalls strukturlos angrenzendem Bezirk allein unterscheidet (unbunte Farben: Schwarz, Weiß und Graustufen, bunte Farben: Helligkeit; Buntheit setzt sich aus Buntton und Farbsättigung zusammen)<br />
** Farbe ist durch Helligkeit, Buntton, Sättigung eindeutig bestimmt → 3D Modell<br />
*** drei linear unabhängige Größen<br />
*** Additive Mischung zur Reproduktion von Farbe (aus Rot, Grün, Blau)<br />
*** drei linearunabhängige Größen spannen immer einen Raum auf → Rot,Grün und Blau werden die Achsen dieses Raumes<br />
<br />
=== Farbvalenz ===<br />
* Mit unserem Modell läßt sich jede Farbe als linearkombination unserer drei Basisvektoren aufschreiben<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
** <math> \vec F</math> ... Farbvalenz<br />
** <math> \vec r, \vec g, \vec b </math> ... die drei Basisvektoren die den Raum aufspannen (Rot, Grün und Blau)<br />
** <math> R,G,B, |\vec F| </math> ... die Farbwerte<br />
** <math> \vec r \cdot R, \vec g \cdot G, \vec b \cdot B </math> ... die drei Primärvalenzen<br />
* Ermittelt werden die Farbwerte mit Hilfe der Vergleichsmethode<br />
** Eine Person vergleicht ein Target mit einer Farbe die aus den drei Primärvalenzen gemischt wird<br />
** wenn die Empfindung der beiden Farben gleich ist, dann notieren wir die Werte<br />
* Innere Farbmischung<br />
** das Target wird mit weißen Licht beleuchtet und wir drehen nur an dem Farbmischgerät<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
* Äußere Farbmischung<br />
** Wir beleuchten das Target mit farbigen Lichte<br />
**<math> \vec F+ B \cdot \vec b = R \cdot \vec r + G \cdot \vec g \rightarrow \vec F = R \cdot \vec r + G \cdot \vec g - B \cdot \vec b</math><br />
<br />
=== Farbreizmetrik ===<br />
* Die Farbreizfunktion <math> \varphi_\lambda</math> beschreibt die spektrale Zusammensetzung der Farbempfindungen<br />
*# Selbstleuchtende Objekte<br />
*#* <math> S_\lambda (\lambda)</math> beschreibt die spektrale Verteilung der Quelle<br />
*#* Wahrnehmung: <math> \varphi_\lambda = S_\lambda</math><br />
*# Auflicht Vorlagen<br />
*#* <math>\beta_\lambda(\lambda)</math> beschreibt den spektralen Remisionsgrad der Vorlage<br />
*#* Wahrnehmung: Licht reflektiert von der Vorlage <math> \varphi_\lambda = S_\lambda \cdot \beta_\lambda</math><br />
*# Durchlichtvorlagen<br />
*#* <math>\tau_\lambda(\lambda)</math> spektraler Transmissionsgrad der Vorlage<br />
*#* Wahrnehmung von Licht welches die Vorlage durchdrungen hat <math>\varphi_\lambda= S_\lambda \cdot \tau_\lambda</math><br />
* Damit haben folgende Faktoren Auswirkung auf die Wahrgenommene Farbe<br />
*# Die Beleuchtung des Objektes (Spektrale Zusammensetzung des Lichtes der Lampe)<br />
*# Das Remmisionsverhalten der beleuchteten Oberfläche<br />
*# Die wellenlängenabhängige Empfindlichkeit der drei Zapfen des Auges<br />
* Es besteht die Möglichkeit die pdt Kurven direkt zur Beschreibung des Farbempfindens zu nutzen<br />
* Die Farbwerte könnte man dann wie folgt ermitteln: <math> \left(\begin{matrix}P\\D\\T\end{matrix}\right)=k\int_{380\mathit{nm}}^{780\mathit{nm}}\varphi (\lambda )\cdot \left(\begin{matrix}p(\lambda )\\d(\lambda )\\t(\lambda )\end{matrix}\right)d\lambda </math><br />
* Für die technische Darstellung von Farbe werden allerdings R,G,B werte benötigt<br />
* Die dafür notwendigen Spektralwertkurven können mit Hilfe der Vergleichsmethode ermittelt werden<br />
* Man erhält damit folgende Kurven<br />
[[Datei:SpektralwertfunktionenRGB.jpg]]<br />
* Mit der gleichen Formel wie bei der pdt Kurve lassen sich nun die R,G,B Werte rechnerisch ermitteln<br />
<br />
== Farbanalyse, Zusammenhang mit der Farbwidergabe ==<br />
* Das Kammera - Monitor System soll die Farbe exakt wiedergeben<br />
* Der Monitor verwendet EBU Phosphore für die Farbdarstellung<br />
** haben selbst Spektralwert kurven => keine Monochromatischen Lichter mehr<br />
* Die notwendigen spektralwertkurven die die Kamera realisieren muss um die Bilder auf dem Monitor exakt darzustellen lassen sich mit Hilfe der pdt Kurven herleiten (Über forderung der Gleicheit der Farben)<br />
* Sie besitzen stark negative Anteile => Auch die Filter der Kamera müssten negative Transsmissionsgrade besitzen<br />
** technisch ist das nicht möglich<br />
* es bleibt also nur die Möglichkeit die notwendigen Parameter zur Ansteuerung des Monitors aus positive one-peak Kurven zu berechnen<br />
<br />
== Subtraktive Farbmischung ==<br />
* Die Subtraktive Farbmischung lässt sich auf die Multiplikation der Transmissionsgrade zurückführen (ein Filter lässt 50% rotes licht durch, wenn man zwei dieser Filter hintereinander legt, dann geht nur noch 25% rotes Licht durch die Anordnung (0.5*0.5 = 0.25) )<br />
* wenn <math> \tau_0 </math> die Transmission eines Filters für die normierte Dicke 1 und die normiert Dichte 1 ist dann kann man<br />
** mit dem Lambertschen Absorbtionsgesetzt die Absortption von dickern/düneren Material berechnen <br> <math> \tau = [ \tau_0]^w </math><br />
*** w ... Dicke des Materials im Verhältnis zum norm Material<br />
** mit dem Beerschen Gesetz die Transmission von Meterial mit anderer Dichte berechnen <br><math> \tau = [ \tau_0]^c </math><br />
*** c... Das Verhältnis der neuen zur alten Dichte<br />
** kann man auch kombinieren zu (Lambert-Beersches Gesetz)<br />
** <math> \tau = [ \tau_0]^{c \cdot w} </math><br />
* Da sich die Transmission Multiplikativ zusammensetzt wird auch gerne mit dem logarithmus der Transmission gerechnet (optische Dichte)<br />
**<math> D = - lg \tau = lg \frac{1}{\tau}</math><br />
** Damit vereinfacht sich das Lambert-Beersche gesetz zu: <math> D = c \cdot w \cdot D_0</math><br />
* selbstverständlich sind die Transmission <math>\tau</math> und die optische Dichte D von der Wellenlänge abhänig ... zur Übersichtlichkeit wurde das in den Formeln nur weggelassen<br />
* Bei einem Papierbild kommt zu dem Filter noch die Reflexion an der Farboberfläche und an der Papieroberfläche<br />
** Beachte das Licht was an der erste Schicht wegreflektiert wird kann icht tiefer eindringen. Nur noch <math> (1-\beta)*S </math> dringt an Licht durch den ersten Filter!<br />
*** <math> \beta </math> ... Remmisionsgrad der ersten Farbe<br />
*** <math> S </math> ... Spektrale Verteilung der Lichtquelle<br />
<br />
= Farbmetrische Schnittstellen - Farbräume (GF a 49 - 55) =<br />
<br />
<pre><br />
Unterschiedliche bildgebende Systeme<br />
z.B. Farbkameras<br />
Farbscanner<br />
Spezialkameras<br />
</pre><br />
'''Widerspruch''' <math>\updownarrow</math> Farbmetrische Schnittstelle<br />
<pre><br />
Unterschiedliche Bildwiedergabesysteme<br />
"True-Color-Darstellung"<br />
- unterschiedliche Monitore, Beamer, Drucker etc.<br />
</pre><br />
<br />
== Leuchtdichte (Luminanz) ==<br />
<br />
* Luminanz Y ist die Strahlungsleistung, bewertet mit der spektralen Empfindlichkeitsfunktion des Auges für das Hellempfinden<br />
* Y ist Leistungsproportional, wenn Lichtzusammensetzung (Leistungsdichte <math>\Theta (\lambda))</math> konstant bleibt<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* Leuchtdichte berechnet sich nach dem ''Abneyschen Gesetz'':<br />
: <math> Y = L = k \cdot \underline L^T \cdot \underline F </math><br />
:* <math>\underline L^T - </math> Leuchtdichtebeiwert: gibt an wie groß der Beitrag jedes Farbwertes der Farbvalenz zum Helleindruck ist, abhängig vom gewählten Farbwiedergabesystem<br />
* Leuchtdichte L <math>\ne</math> Intensität I<br />
: <math> I = \frac 1 3 (R+G+B)</math><br />
<br />
* die perzeptuelle Antwort unseres Auges auf die Leuchtdichte wird Helligkeit (Lightness) genannt<br />
: <math><br />
L^{\star} = \begin{cases}<br />
116 \cdot \sqrt [3] {\frac Y {Y_n}} -16, & \text{wenn } \frac Y {Y_n} > 0{,}008856\\<br />
903{,}3 \cdot {\frac Y {Y_n}}, & \text{wenn } \frac Y {Y_n} \le 0{,}008856<br />
\end{cases}<br />
</math><br />
<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: Eine Quelle die nur 18% der Luminanz einer Referenz hat, erscheint uns immer noch halb so hell wie die Referenz </span><br />
<br />
== Gammakorrektur und Luma ==<br />
* '''Gammakorrektur:'''<br />
** Aufgrund der Ansteuerung von CRT Monitoren und der verwendeten Phosphore ergibt sich ungefähr eine quadratische Abhängigkeit der Luminanz vom Videosignal<br />
** Die Luminaz der drein einzelnen Farbkanäle muss den gleichen Verlauf aufweisen. Sie dürfen sich nur in ihren Maximalwerten unterscheiden!<br />
*** Sonst ist es nicht möglich die Helligkeit zu ändern und dabei die Farbe konstant zu halten<br />
** Die Gammakorrektur sorgt dafür das die Farbwiedergabe auf dem Monitor linear verläuft und nicht quadratisch<br />
*** Notwendig damit wir die gleich Wahrnehmung erzielen können als währe das Kamera-Monitor System nicht vorhanden<br />
<br />
*'''Luma:'''<br />
** Luma ist die gewichtete Summe der drei Gammakorregierten Farbwerte R',G',B'<br />
** Damit ist Luma nicht gleich Luminanz<br />
<br />
*'''Brightness'''<br />
** Brightness ist ein Begriff der beschreibt wie stark eine Fläche Licht emmitiert oder sie hell sie erscheint<br />
** Besitzt kein festes Maß und wird daher sehr frei verwendet -> HSL<br />
<br />
== Farbsysteme, Farbräume, reduzierte Farbräume ==<br />
* Die Intensität einer Farbe ist <math> I = \frac{R + G +B}{3} </math><br />
* Wählt man die Intensität konstant mit <math>I=\frac{1}{3}</math> so ergibt sich eine Ebene die den RGB-Farb Würfel Diagonal schneidet und durch die R,G,B Eckpunkte geht<br />
* Jede Farbkoordinate kann auf diese Ebene projeziert werden -> Ermöglicht die Nutzung dieser Ebene als einfache Farbtafel<br />
** Diese Ebene kann dann noch auf die 0RG- Fläche des RGB Würfels projeziert werden ohne das die Ordnung der Farben gestört werden würde -> Der Farbton einer Farbe lässt sich allein durch r und g beschreiben<br />
* in die rg-Ebene können nun alle in RGB - darstellbaren Farben und alles existierenden Farben eingetragen werden<br />
** Danach erkennt man das sich technisch mit dem RGB-System nur ein kleiner Teil der exisiterenden Farben realisieren lässt<br />
<br />
= Das Normvalenz- oder XYZ-System (GF a 76 - 86) =<br />
* Alle Farbwerte sollen durch positive Farbwerte darstellbar sein<br />
** Für Farbmessung von Interesse<br />
** Das XYZ- Dreieck muss den spektralen Kurvenzug voll umschließen<br />
* Eine weitere Forderung ist das die Leuchtdichte als unabhängige Komponete auftreten soll<br />
* Die Fläche des Dreiecks soll so klein wie möglich sein<br />
* Die dadurch berechnbaren Normalvalenzen sind physikalisch nicht erzeugbar -> Die Spektralwertkurven für das System müssen berechnet werden<br />
** Die Berechneten Spektralwertkurven sind stets nichtnegativ -> immer positive Transmissionsgrade und Sensorempfindlichkeiten<br />
[[Bild:NORMXYZ1.JPG]]<br />
* Mit dem XYZ-System kann man nun Farbdreiecke vergleichen und Bewerten<br />
** Abstände, Fehler und Systemeigenschaften sollten aber in einem empfindungsmäßig gleichabständigen Farbraum bewertet werden (u'v'w' und CIELab)<br />
* '''Optimalfarbkörper'''<br />
** Beschreibt die Grenze aller darstellbaren Körperfarben<br />
** Zur Erstellung schneidet man rechteckförmige Stückchen aus dem Spektrum von Idealweißem Licht aus<br />
<br />
== Das UVW-System ==<br />
* Informationsgehalt der Farbe für den Menschen hängt davon ab welche Farbunterschiede er wahrnehmen kann<br />
* Vor allem ist das interessant wenn Bildverarbeitungsprobleme auf der menschlichen Wahrnehmung formuliert sind<br />
* xy-Farbtafel hat starke Unterschiede zwischen örtlichen Abstenden und empfindungsmäßigen Abständen -> ungeeignet<br />
* erste Lösung<br />
** lineare Transformation<br />
** W' -> Helligkeit<br />
** U' -> Rot-Grün Bundheit<br />
** V' -> Gelb-Blau Bundheit<br />
** Ergebnis<br />
*** Wesentlich besseres Darstellung der Empfindung (Faktor 10 gegenüber dem XYZ-System)<br />
* verbesserte Lösung<br />
** verwenden einer nicht linearen Abbildung (Auge wird mit berücksichtigt)<br />
<br />
== L*a*b* oder CIELAB-Raum ==<br />
* Gegenfarbmodell<br />
* empfindungsmäßig gleichabständiger Raum<br />
* Grundsätzlich zur Angabe von Farbabweichungen verwendet<br />
** Geeignet zur Bewertung von Druckern, Monitoren und Abweichungen von Nachfärbungen<br />
* als Farbdifferenzmaß wird der euklidische Abstand benutzt (<1 nicht mehr Wahrnehmbar)<br />
<br />
== L*u*v* oder CIELUV ==<br />
* für additive Mischung vorgesehen<br />
* wie der CIELAB- Raum ein empfindungsmäßiger gleichabständiger Raum<br />
<br />
== YCbCr - Crominanzwertsystem ==<br />
* Entwickelt damit Farbfernsehen und S/W-Fernsehen Parallel betrieben werden konnten<br />
* Crominanzwerte<br />
** sind von Leuchtdichte befreite Werte<br />
** verschwinden für alle unbunten Farben<br />
** Cr= R-Y, Cg = G-Y, Cb = B-Y<br />
** Das System aus CrCbCg und Y ist überbestimmt => Es reicht die Übetragung von Cr , Cb und Y<br />
* Da das Auge auf Helligkeitsunterschiede empfindlicher reagiert als auf Farbunterschiede können die Crominanzwerte mit geringerer Auflösung übertragen werden<br />
<br />
== ΘSY - System ==<br />
* Der Bunttonwinkel Θ berechnet sich aus dem Verhältnis der Crominanzwerte Cb und Cr<br />
* Die Sättigung S ist der Betrag des Vektors CrCb<br />
<br />
== HSI - Farbraum ==<br />
* Intensität: <math> I= \frac{R+G+B}{3} </math><br />
* Sättigung: <math> S = 1 - 3 \cdot min (r,g,b) </math><br />
* Hue: <math> H= \left\{ \begin{matrix}\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B\le G \\ 2\pi -\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B>G \end{matrix}\right . </math><br />
* Raum ist nicht gleichmäßig gefüllt<br />
* bei kleinen Intensitäten I in Buntton und Sättigung Instabil<br />
* Es kann bei Farbmanipulationen dazu führen das es keine Entsprechungen im RGB gibt<br />
** Lösungen:<br />
*** Dachförmige Begrenzung des HSI Raums -> sehr Aufwendig<br />
*** Normieren der Intensitäten -> Bild kann ins dunkle verschoben werden<br />
*** Maximalwert setzen -> Falsche Farbwerte (werden ins unbunte verschoben)<br />
*** proportionales skalieren bis Farbe im RGB-Würfel liegt<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
<br />
== HSL - Farbraum ==<br />
* Gern für Computergrafik verwendet<br />
* einfache Beziehungen<br />
* Die Verwendeten Biegriffe H,S,L entsprechen nicht der Bedeutung in der Farblehre und Form des Raumes<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
* Buntton ist extrem instabil bei kleinen Sättigungen<br />
* Form des Raumes ist unpraktisch<br />
<br />
= Farbmessung (GF 1 - 11) =<br />
<br />
* Farbmessung = Ermittlung der drei zu einer Farbvalenz gehörigen Farbmaßzahlen<br />
* 3 Messmethoden: <br />
** Vergleichsmethode oder Gleichheitsverfahren<br />
** Spektralverfahren<br />
** Dreibereichsverfahren<br />
<br />
== Gleichheitsverfahren ==<br />
<br />
* Vergleiche:<br />
** Vorlage mit additivem Gemisch<br />
** Vorlage mit Farbmusterkarten (DIN-Karten)<br />
* unverzichtbar bei physiologischen Untersuchungen<br />
* aufwendig und bei kleinen Probandengruppen ungenau<br />
* d.h. für technische Messungen ohne Bedeutung<br />
<br />
'''Messbedingungen nach DIN:'''<br />
* helladaptiertes und blendfreies Sehen<br />
* unbunter Messraum<br />
* neutrale Gesichtsfeldumgebung mit gleicher oder etwas kleinerer Leuchtdichte als im Messfeld<br />
* gut ausgeruhtes und neutral gestimmtes Auge<br />
* farbnormalsichtiger Beobachter<br />
<br />
== Spektralverfahren ==<br />
<br />
* zu messende Farbvalenz = Summe spektraler Farbvalenzen<br />
* greift auf gemessene Normspektralwertkurven zurück<br />
<br />
# '''spektrale Messung zur Ermittlung der Farbreizfunktion <math>\varphi (\lambda) </math>'''<br />
#* Selbststrahler: direkte Messung der Strahlungsfunktion <math>\rightarrow \varphi (\lambda)= S (\lambda)</math><br />
#* remittierende Vorlage: Remissionsfunktion der Vorlage messen, d.h. Strahlungsfunktion S ist vorher zu bestimmen und aus <math>\varphi (\lambda)</math> heraus zu rechnen <math>\rightarrow \varphi (\lambda)= \beta (\lambda) \cdot S (\lambda)</math><br />
# '''farbvalenzmetrische Auswertung'''<br />
#* wenn <math>\beta (\lambda)</math> ermittelt wurde, kann jede beliebige (tabellierte) Lichtquelle <math>S^{\ast} (\lambda)</math>eingesetzt werden<br />
#: <math><br />
\begin{bmatrix}<br />
X\\Y\\Z<br />
\end{bmatrix}<br />
= k \cdot<br />
\begin{bmatrix}<br />
\int \bar{x} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{y} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{z} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda<br />
\end{bmatrix}<br />
</math><br />
#* Normierungskonstante k:<br />
#** Selbststrahler: nur Farbwertanteile gefragt, d.h. k ist beliebig<br />
#** Körperfarben: Y für mattweißen Körper = 100, d.h. <math>k=\frac{100}{\int {S(\lambda) \cdot \bar{y}(\lambda) d \lambda}}</math><br />
<br />
'''Messgeometrien:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bildergalerie (45°,8°,Transmission) </span><br />
<br />
* ''45°-Geometrie'': Beleuchtung unter 45° schließt Glanzeinfluss aus <math>\rightarrow</math> Sensor blickt senkrecht auf Probe<br />
* ''8°-Geometrie'': Beleuchtung diffus über Ulbricht-Kugel <math>\rightarrow</math> Sensor blickt unter 8° auf Probe; Messung mit/ohne Glanz möglich<br />
* ''Transmissionsgeometrie'': Probe wird durchleuchtet<br />
<br />
== Dreibereichsverfahren ==<br />
* die drei Farbwerte werden direkt photometrisch gemessen<br />
* Filter und spektrale Empfindlichkeite der Strahlungsempfänger müssen an die spektrale Bewertungsfunktion angepasst sein<br />
* '''Luther-Bedingung:''' <math> \tau_x(\lambda) = \frac{c_x \cdot x(\lambda)}{s_1(\lambda)}</math><br />
** <math> \tau_x(\lambda) </math> ... Filtertransmission<br />
** <math>s_1(\lambda)</math> ... Sensorempfindlichkeit (hier im ersten Kanal)<br />
** <math>c_x</math> ... Gerätekonstante<br />
** Für den Y und Z Kanal ist die Formel analog<br />
* Der notwendige Filter kann gut durch ein Set von Schmalbandigen Filtern realisiert werden<br />
<br />
== Spektralmaskenverfahren ==<br />
<br />
* spezielles Dreibereichsverfahren<br />
* Lichtzerlegung erfolgt mit einem Prisma<br />
* Das zerlegte Lich beleuchtet eine Maske (Papier, Plaste, Metal .... ne richtige echte Maske)<br />
* Messen der spektralen Verteilung (CCD-Zeile)<br />
* Ähnlich dem Spektralverfahren nur das das spektrum bereits im analogen entsprechend gewichtet wird<br />
<br />
== Metamerie ==<br />
* zwei Farbproben die bei einer bestimmten Beleuchtung gleich aussehen können bei einer anderen Beleuchtung ganz anderst aussehen<br />
* Der Metermarie-Index beschreibt diesen durch Beleuchtungswechsel entstehenden Farbwechsel<br />
* KEIN Maß für die Farbkonstantheit sondern für den Unterschied von zwei Proben<br />
* Berechnung erfolgt im L*a*b* Raum <br> <math> M_T = \sqrt {(L_{1T}-L_{2T}+L_{2B}-L_{1B})^2 +(a_{1T}-a_{2T}+a_{2B}-a_{1B})^2+(b_{1T}-b_{2T}+b_{2B}-b_{1B})^2 } </math><br />
** T ... Testlicht<br />
** B ... Bezugslicht<br />
** 1,2 ... Probennummern<br />
<br />
= Klassifikation von Messaufgaben (GF 82 - 86) =<br />
<br />
# Messung von objektiven Eigenschaften, die sich in der Veränderung spektraler Charakteristika niederschlagen<br />
#* vordergründig ist Zusammenhang zwischen Veränderungen in den physikalischen Eigenschaften von Interesse (z.B. Waferinspektion)<br />
#* Zusammenhang sollte eindeutig und von hinreichender Empfindlichkeit sein<br />
#* Wahrnehmung unterschiedlicher Farben eher Nebeneffekt<br />
# Überwachung der Stabilität von farblichen Erscheinungen<br />
#* ist bei einer oder mehreren Beleuchtungen zu überwachen<br />
#* absolute Farbmessung nicht nötig; "Anlernen" auf Farben genügt<br />
#* Abstände im Farbempfinden müssen sich in gleicher Weise in Veränderungen der Sensorsignale wiederspiegeln<br />
# absolute Farbmessung<br />
#* d.h. Ermittlung der korrekten Farbvalenz unter beliebigen Messbedingungen<br />
#* Spektralwertkurven müssen realisiert werden<br />
# Messung des spektralen Remissions- und/oder Transmissionsverhaltens von Materialien<br />
#* ausschließlich spektrale Messverfahren<br />
#* Messung der Strahlungsfunktion und der remittierten Leistungsdichte<br />
#* Berechnung der Farbvalenz bei beliebiger Beleuchtung und des Metamerie-Index<br />
<br />
'''steigende Ansprüche mit steigender Nummerierung'''<br />
<br />
= Einfache Farbkalibrierung (GF 16 - 41) =<br />
* Farben sollen möglichst exakt Wiedergegeben werden<br />
<br />
== Ausgleich von Beleuchtungseinflüssen ==<br />
* Körperfarben werden durch ihre Remmision bestimmt <math> \beta </math><br />
* Bei unterschiedlicher Beleuchtung sehen Farben unterschiedlich aus aber das Auge kann sich an die Beleuchtung adaptieren<br />
** Funktioniert bei Fotos aber nicht -> Beleuchtungsausgleich ist wichtig<br />
** Bei Farbvergleich noch viel mehr<br />
** Wird realisiert durch Weißabgleich (auf integraler Farbebene nicht möglich )<br />
* Direkte Vermessung der spektralen Eingenschaften der Kamera nicht möglich (Da Werte in Kamera bereits verrechnet werden um z.B. die negativen Anteile der Spektralkurven zu realisieren)<br />
** sehr Aufwendig (Kamera auseinanderbasteln um an die echten werte zu kommen + das durchgehen durch das Spektrum in kleinen Schritten)<br />
* Daher Verwendung von Testfarben<br />
** Führt auf Lösung eines linearen Gleichungssystem<br />
** Für menschliches empfinden -> Optimieren im CIELAB-Raum<br />
* Vorsicht bei nichtlinearen Funktionen zur Farbkalibrierung -> Kann bei zu wenig Testfarben zu total falschen Ergebnissen führen !!<br />
<br />
= Color Management (F CM 1 - 20) =<br />
* verschiedene Geräte können verschiedenen Farben darstellen<br />
* verschiedene Geräte verwenden andere Grundfarben zum mischen<br />
* Mit Hilfe von Profilen (Tabellierung der Farbwerteumrechnungen) wird eine Konvertierung der Farben vom Geräteraum in den CIELab Raum bzw umgekehrt durchgeführt<br />
* in den Profilen wird auch vermerkt welche Farben darstellbar sind und welche nicht<br />
* Somit kann man eine "Druckvorschau" auch auf einem Monitor erreichen (natürlich nur für Farben die auf beiden Geräten dargestellt werden können)<br />
** Jedes Mapping der Farben (Gamut-Mapping stellt somit einen Kompromiss dar)<br />
**# Perceptual (Die Farbbeziehungen untereinander werden erhalten) Komprimierung des Gamuts bis er in den zur Darstellung verwendeten passt<br />
**# Colometrisch -> Exakte Reproduktion aller in beiden Gamuts darstellbaren Farben<br />
**## relativ -> weiß wird auf weiß abgebildet und alle anderen Farben relativ dazu<br />
**## absoult farbmetrisch<br />
**# Saturation, alle Farben außerhalb des Zielgamuts werden zugunsten der Sättiung verändert<br />
* Kalibrierung -> Versetzen des Gerätes in einen definierten, reproduzierbaren Zustand<br />
* Charakterisierung -> Modellierung eines Gerätes welches sich ein einem stabilen definierten Zustand befindet<br />
<br />
= Kameras (GF_Ka 1 - 12) =<br />
<br />
'''Einsatzfelder:'''<br />
* ortsaufgelöste Messung von Farbe<br />
* Aufnahme und Wiedergabe von True-Color Bildern<br />
* Aufnahme farbiger oder mehrkanaliger Bilder für die Verarbeitung/Analyse (Qualitätssicherung)<br />
* Photogrammetrische Anwendungen (Lösung des Korrespondenzproblems)<br />
* Radiometrische Anwendungen (Messen im Spektralbereich)<br />
<br />
'''Dreibereichsmessung:'''<br />
* setzt die Trennung von drei sich überlappenden Spektralbereichen voraus, die dann wellenlängenabhängig zu bewerten und zu integrieren sind<br />
<br />
== Dreichip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* optische Kanaltrennung und Bewertung<br />
* beste Bildqualität, da hohe Auflösung in allen drei Kanälen<br />
* keinen örtlichen Versatz der Pixel in den drei Farbauszügen<br />
* Filter einfacher und präziser zu realisieren<br />
* befinden sich z.B. als dichroitische Spiegel auf den Strahteilerprismen<br />
<br />
<span style="color:#ee0000;"> \\ Hot-Mirror-, Cold-Mirror-Korrektur????</span><br />
<br />
== Einchip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: doppelte Anzahl grüner Pixel wegen Schärfe, MTF des Auges </span><br />
<br />
* örtliche Kanaltrennung und Bewertung<br />
* Streifen- oder Mosaikfilterstrukturen auf den einzelnen Pixeln zur örtlichen Signaltrennung<br />
* 3 oder 4 unterschiedliche spektrale Auszuüge zur Erzeugung der Farbinformation<br />
* Matrix selbst kann Interline- oder Frame-Transfer-Matrix sein<br />
* kostengünstiger und kleiner als Dreichip-Kameras<br />
* Probleme:<br />
** Farbvalenzen aus örtlich versetzten Auszügen (z.B. Farbsäume an Kanten)<br />
** nicht korrigierbare Fehler aus Nichtlinearitäten und Dunkelsignalen bei der Bildung von Mischsignalen<br />
<br />
'''generelle Anforderungen an die Signalverarbeitung:'''<br />
<br />
* primäre Kamerasignale stellen keine farbmetrische Schnittstelle zur Verfügung, d.h. alle Bewertungsfunktionen sind nicht-negativ (Spektralwertkurven fordern aber negative Wichtungen)<br />
* je nach realisierten Filtern und Genauigkeitsansprüchen <math>\rightarrow</math> lineare Matrizierung (meist Kameraintern) oder komplexere Approximation<br />
* bei hohen Genauigkeitsansprüchen <math>\rightarrow</math> Umgehung der Kamerainternen Matrizierung, weil Verstärkungsfaktoren, Toleranzen, Temperaturdrift, Langzeitstabilität etc. nicht bekannt sind<br />
* insgesamt geringe Nichtlinearitäten der CCD's können in den Ansteuerbereichen der einzelnen Kanäle zu wesentlichen Fehlern führen:<br />
** Farbvalenz ändert sich kontinuirlich mit der Shutterzeit<br />
** Pixelweise DSNU- (Dunkelsignalungleichförmigkeit) und PRNU- (Hellsignalungleichförmigkeit) Korrektur vor Erzeugung der Farbvalenz erforderlich, da sich Festmusterrauschen nicht nur auf Intensität sondern auch auf Farbart auswirkt<br />
** Dunkelsignal verdoppelt sich alle 7K, Gleichanteil wird aber geklemmt<br />
** Lichtquellentyp und Langzeitverhalten wirken sich nicht nur Intensität sondern auch auf Farbtemperatur aus<br />
<br />
'''4 spektrale Bereiche:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* vorteilhaft zur Erzeugung von Farbdifferenzsignalen für die TV-Kompatibilität<br />
* im Field-Integration-Mode werden Mischsignale gebildet, die die erforderliche Signalkorrektur für hohe Ansprüche behindern<br />
* Nichtlinearität der Ausgangsverstärker wirkt sich auf Korrektur der primären Mischsignale aus<br />
<br />
== Sequentielle Einchip-Kamera ==<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* zeitliche Kanaltrennung und Bewertung<br />
* relativ genaue Approximation der Spektralwertkurven möglich<br />
<br />
== Elektrisch steuerbare Filter ==<br />
<br />
* über die Wellenlängenabhängigkeit der Eindringtiefe der Photonen und die Steuerbarkeit der Tiefe der Potentialmulden der sensoren lassen sich steuerbare spektrale Empfindlichkeiten erzeugen<br />
<br />
= Verarbeitung von Farbbildern (1 - 31) =<br />
* Das unabhängige verarbeiten der Farbkanäle eines Farbbildes führt zu Nebeneffekten wie Farbsäume<br />
* Die höhere Vielfalt des mehrdimensionalen Raumes von Farbbildern kann Vorteilhaft genutzt werden für Pixelklassifikation, Segmentierung <br />
* Abstände, Mittlere Werte und örtliche Veränderungen sind in empfindungsmäßig gleichabständigen Räumen zu definieren und zu bewerden<br />
<br />
== Histogramme und Statistiken für Farbbilder ==<br />
* Farbbilder liefern dreidimensionale Häufigkeitsverteilungen im Farbraum → können als Approximation der entsprechenden 3D-Dichten verwendet werden<br />
* statistische Zusammenhänge zwischen den Kanälen werden in mehrdimensionalen Dichten betrachtet<br />
** Für Handauswertung meist nur 2D-Dichten, wegen der Übersicht<br />
** Für maschinelle Auswertung können diese dichten auch dreidimensional werden<br />
** für die parametrische Darstellung der Cluster werden meist multivariante Gaußverteilungen eingesetzt<br />
*** Einr Gaußverteilung ist für die Beschreibung eines Bildes mit mehreren Objekten nicht geeignet<br />
*** Die Kovarianzmatrix einer solchen "Approximation" kann aber gut zur Einschätzung der Streuung und der Mittelwerte in dem Bild eingesetzt werden<br />
<br />
=== Histogramm - Modifikationen ===<br />
* Contrast Streching, Polygonal Image Scaling, Histogram-Equalisation Siehe [[Grundlagen der Bildverarbeitung und Mustererkennung#homogene Punktoperationen|Grundlagen der Bildverarbeitung]]<br />
* Manipulation kann in verschiedenen Farbräumen ausgeführt werden (RGB,HSI,...)<br />
** In nicht empfindungsmäßig gleichabständigen Räumen muss die Transformation nicht unbedingt zum Ziel führen<br />
==== Manipulation im Farbraum RGB ====<br />
* ist der Farbraum in dem die Daten häufig vorliegen<br />
* Wirkung kann auf Grund der starken korrelation der RGB Werte bei geringen Sättigungen ausbleiben<br />
* Farbverfälschung wenn einzelne Kompontenen unabhänig von einander behandelt werden<br />
* hohes apriori-Wissen notwendig<br />
* wenn Falschfarbdarstellung gewünscht ist kann dies das mittel der Wahl sein<br />
<br />
==== Manipulationen im Farbraum HSI ====<br />
* unproblematisch in Bezug auf Farbverfälschungen<br />
* Zielsetzungen können sich einfacher beschreiben lassen (ähnelt der Beschreibung von Farbe durch den Menschen)<br />
* unabhängige Komponente (Intensität)<br />
* Kontrastverbesserung durch Sättigungsausgleich ohne Farbveränderung möglich<br />
* Stabilitätsprobleme nahe den unbunten Farben<br />
# '''Ausgleich des Intensitätshistogramms'''<br />
#* Werte möglich die keine entsprechung mehr im RGB haben → müssen geeignet herruntergerechnet werden<br />
#* bei kleinen Intensitäten sind die Bunttöne instabil → ausschließen von Veränderungen<br />
# '''Sättigungsausgleich'''<br />
#* Modifikation der Sättigung unter Beibehaltung des Bunttones<br />
#* Bei kleinen Sättigungen und kleinen Intensitäten ist der Buntton instabil → Ausschließen<br />
#* Histogramm über alle Bunttöne ist häufig verschmiert → besser Histogramm über Buntton Segmente<br />
# '''Bunttonausgleich'''<br />
#* Ziel sind Farbfalschbilder um Objekte besser unterscheiden zu können<br />
#* bei zu großen Buntton Änderungen wird die Interpretierbarkeit nur bei homogenen Flächen verbessert, meist wird sie eher verschlechtert<br />
#* Unsicherheit des Bunttons → bei geringen Sättigungen und Intensitäten ist der Buntton auszuschließen<br />
<br />
== segmentgesteuerte Farbvalenztransformationen ==<br />
* Globale Statistiken werden häufig durch nicht interressante Objekte dominiert<br />
* Ausweg ist das Betrachten von Ausschnitten und anwenden der Transformationen auf die Ausschnitte<br />
* erfordert zu erst das Segmentieren des Bildes<br />
<br />
= Referenzfreie Farbadaption auf Basis des 3D-Histogramms (HuS 32 - 39 ) =<br />
* unter bestimmten umständen kann auf eine Kalibrierung der Kamera mittels Referenzfarben verzichtet werden<br />
* Zur Korrektur soll die parametrische Approximation der 3D-Histogramme durch multivariante Gaußverteilungen genutzt werden<br />
== Vorraussetzungen für die Anwendbarkeit ==<br />
* Strukturierte Szene mit mehreren ntürlichen Objekten, die gleichmäßig über den Bunttonwinkel verteilt sind und durchschnittlichen Sättigungsgrad aufweisen<br />
* Langgestreckter SW-Prozess im Vergleich zum Rot-Grün und Blau-Gelb Prozess<br />
<br />
== Vorgehensweise ==<br />
* Korregieren von "vermutlichen" Abweichungen des Bildes in der Unbuntheitsachse<br />
* Dazu Ermitteln der Hauptachsen mit PCA<br />
* Drehen der Hauptachse in den SW-Prozess<br />
* Rücktransformation und Darstellung<br />
<br />
= Histogrammbasiertes Farbmatching(1 - 15) =<br />
* Histogramme sind im 2D Bild invariant gegenüber Rotation, Translation und Maßstab (wenn die Angaben relativ erfolgen !)<br />
* Histogramme sind auch relativ stabil gegenüber moderaten Verdeckungen und 3D-Rotation<br />
* Grobe Quantisierung der Histogramme um Fehlertoleranz zu erhöhen<br />
* Damit können Histogramme zur Objekterkennung eingesetzt werden → Bezeichnet als Color Indexing<br />
<br />
== uniformes Binning ==<br />
* einteilen der Farben in ein gleichverteiltes Histogramm<br />
* Suche in einem Bild den Ausschnitt welcher eine minimale Distanz zum Referenzbild hat<br />
* Als Abstandsmaß verwendet werden die Histogramme genutzt<br />
** Summe der Quadratischen Differenzen (Histogramme als Vektoren betrachtet und dann den euklidischen Abstand berechnet ohne Wurzel)<br />
** Earth Movers Distance (Berechnen was sich wohinverteilt haben könnte ... erfordert die Lösung des Transportproblems)<br />
* einfach aber die Bins ändern sich Sprunghaft, vor allem dann wenn Farben knapp an den willkürlichen Bingrenzen liegen<br />
<br />
== Unscharfe Chroma-Orts-Histogramme ==<br />
* Nachteile des uniformen Binning sollen überwunden werden<br />
* Alle Pixel bekommen eine unscharfe Klassenzugehörigkeit (Binnzugehörigkeit) je nach Abstand zum entsprechenden Binnmittelpunkt (wie bei [[Softcomputing|Fuzzy-C-Means]])<br />
** Ein Parameter ermöglicht dabei die Verunschärfung einzustellen (von total unscharf bis zum festen Binning)<br />
* Auch der absolute Ort der Segmente (aus denen die Histogramme erstellt werden) soll mit verwendet werden<br />
** Dazu wird das Bild in entsprechende Bereiche geteilt (8x8,16x16,...)<br />
** Alle Blöcke werden durchnnummeriert<br />
** Auch hier kommt es zu harten Umbrüchen wenn Pixel knapp an den Grenzen liegen → auch hier verunschärfen<br />
** Welche Indizees haben die Nachbarn? (Nachbarschaft in den Indizees der Blöcke heißt nicht gleich 2D-Nachbarschaft)<br />
<br />
== Cluster mittels Graphenansatz ==<br />
* Ziel ist es:<br />
** Sprunghafte Änderung der Binns zu verhindern<br />
** wenige Merkmale zu verwenden<br />
** Eng beieinander liegende Maxima trotzdem unterscheiden zu können<br />
* Verwendete Bilddaten:<br />
** Farbwinkelhistogramm, wenn Sättigung der Farben ausreichend ist<br />
** Intensitätsdiagramm, wenn Sättigung der Farben zu gering wird<br />
* Vorgehen:<br />
** Jeder Wert im Histogramm zeigt auf den Größten in seiner Nachbarschaft<br />
** Das Maximum zeigt auf sich selbst → Wird Merkmal<br />
** Weiteres Merkmal ist die Fläche die zum Maximum gehört (Nachbarn die direkt bzw. indirekt auf das entsprechende Maximum zeigen)<br />
* Match:<br />
** Finde ein Tupelpaar (Maxima in Referenzhistogram und Suchhistogram mit dem geringsten Abstand)<br />
** Ziehe gemeinsame Fläche von jedem Tupel des Paares ab<br />
** summiere gemeinsame Fläche (?)<br />
** Wiederhole bis sich keine Tupelpaare mehr bilden lassen<br />
** beziehe die laufende Summe auf das Maximum der Summe der ursprünglichen Flächen<br />
<br />
= Störunterdrückung (SU 1 - 16) =<br />
* Für nachfolgende Verarbeitungsschritte ist die Störunterdrückung sehr wichtig<br />
* Verschiedene verfahren der Rauschunterdrückung sind in [[Grundlagen der Bildverarbeitung und Mustererkennung#Lokale Operatoren zur Bildverbesserung (LOa 1 - 44) |BV]] eingeführt worden<br />
<br />
== Störunterdrückung durch Faltungsfilter ==<br />
* Anwendung wird einfach vektoriell durchgeführt (als würde man drei unabhängige Bilder gleichzeitig Filtern wollen)<br />
* es entstehen neue Farbtöne an den Übergängen zwischen Farben<br />
* im HSI Farbraum ist eine getrennte Betrachtung der Farbe und der Sättigung/Intensität möglich<br />
* Buntton ist zyklisch → muss bei der Mittelung beachtet werden<br />
* in der Farbe kann stärker gemittelt werden als in der Helligkeit (Auge nimmt Farbveränderungen schlechter wahr)<br />
* Komplexe Zahlen bieten sich hier als Rechenmittel an<br />
<br />
== adaptive gewichtete Mittelung ==<br />
* detailerhaltende Fähigkeiten von Filtern wegen der Farbsäume besonders von Interesse<br />
* Abstände verkomplizieren sich im Vergleich zu Grauwertbildern (Vektorabstandsmaße, Winkeldifferenzen,...) <br />
* Vorgehen nach dem Berechnen des Abstandes dann wieder Analog zur Grauwertfilterung<br />
<br />
== Medianfilterung ==<br />
* Problem bei der Übertragung des Rangordnungsgedankens auf Vektoren<br />
** Komponentenweises Vorgehen ist nicht geeignet (absolute Farbverfälschungen möglich)<br />
** Suche des besten Vertreters des SETS (wenn der verwendete Media im SET ist werden keine zu falschen Farben gewählt/gesetzt)<br />
*** kleinste Abstandssumme zu allen anderen Pixeln<br />
<br />
== Kombination von Averaging und Medianfilterung ==<br />
* Medianfilter ist gut für Impulsrauschen, schlecht bei Gauß hier ist Average gut<br />
* Bei den Filtern gibt es keinen unterschied zu den Grauwertbildern (unterschied besteht nur in der Realisierung der verwendeten Media/Average Filter nicht in ihrere Kombination)<br />
<br />
== Vektor-Richtungs-Filter ==<br />
* '''Basic Vecotr Directional Filter'''<br />
** Winkel zwischen Farbvalenzen als Distanzmaß<br />
** Ergebnis ist die Farbvalenz mit der kleinsten Winkeldifferenzsumme zu allen Valenzen des Fensters<br />
** Achromatische Rauschkomponenten werden nicht beseitigt<br />
* '''Generalized Vector Directional Filter '''<br />
** Suche nach den besten Vektoren aus Sicht der Richtung<br />
** Medianfilterung der Beträge der Vektoren<br />
* '''Directional Distance Filter'''<br />
** Vermeiden der Ineffizenz des GVDF Filters durch ein gemischtes Distanzmaß (Betrag und Winkel gleichzeitig)<br />
<br />
= Kantendetektion in Farbbildern (1 - 21) =<br />
* Wichtig für Segmentierung, Bildanalyse und Bildverstehen<br />
* [[Grundlagen der Bildverarbeitung und Mustererkennung#Kantendetektion (LK 1 - 38)| Kantenfilter]] bereits aus BV bekannt<br />
# '''Vektrogradient'''<br />
#* Berechnen der Jacobi-Matrix<br />
#* Wurzel aus dem größten Eigenwert ist der Vektorgradient<br />
#* Extrem Rechenaufwendig<br />
# '''Mittelwert der Richtungsableitungen'''<br />
#* Entspricht dem Gradienten im Intensitätsbild<br />
#* Zwei engegengesetzte Gradienten in unterschiedlichen Farben können sich gegenseitig aufheben → der Gradient der dritten Farbe dominiert egal wie klein er ist<br />
# '''Maximaler Gradient'''<br />
#* Suche nach dem Gradienten mit dem größten Betrag<br />
#* Korrelation der einzelnen Gradienten ist nicht von Bedeutung<br />
<br />
= Farbpixelklassifikation (Farbpixelklassifikation 1 - 21) =<br />
* Die Farbvalenzen bilden die Merkmale der Pixel<br />
* Anzustrebende Eigenschaften<br />
** Gute Beschreibung der Klassencluster und gute Trenneigenschaften<br />
** Einfache Belehrbarkeit (Aus Beispielen oder Expertenwissen)<br />
** Echtzeitfähigkeit<br />
** möglichst frühe Stufe der Verarbeitungskette ("Anspruchslosigkeit an das Bild")<br />
** Nutzen von Klassenzugehörigkeitsmaßen<br />
<br />
== optimaler Klassifikator ==<br />
* basiert auf dem Bayes-Theorem<br />
* findet die optimale Klassenentscheidung<br />
* Jeder Datenpunkt wird in die Klasse eingeordnet zur der er am Wahrscheinlichsten gehöhrt und bei der er die kleinsten Kosten für die anderen Klassen verursacht<br />
** Benötigt eine Risikofunktion die Angibt wie groß die Kosten bei Fehlklassifikation zwischen zwei Klassen sind<br />
*** Meist unbekannt und deswegen wird davon ausgegangen das die Kosten für jede Fehlklassifizierung gleich sind<br />
*** Kosten können durchaus auch bei richtiger Klassifikation definiert werden<br />
** Benötigt die Wahrscheinlichkeitsverteilung der Klassen im Raum (Meist unbekannt → Problem)<br />
*** können beliebig sein werden aber meist durch Gaußfunktionen approximiert<br />
*** in der Lernphase werden die Parameter dieser Verteilung geschätzt<br />
* Da Wahrscheinlichkeitsverteilung meist unbekannt ist, wird der Klassifikator ehr genutzt um einen anderen Klassifikator zu bewerten, wenn man eine bestimmt Wahrscheinlichkeitsverteilung festlegt (wie optimal ist der andere Klassifiaktor)<br />
<br />
== Maximum-Likliehood-Klassifikator ==<br />
* im Ansatz wie optimaler Klassifikator<br />
* setzten der Risikofunktion für alle Fehlklassifikationen auf einen konstanten Wert<br />
* verwenden von multivarianten Gaußdichten zur Beschreibung der Klassen<br />
* Entscheidung wird nur noch nach der a posteriori Wahrscheinlichkeit und der Klassen Verteilung gefällt<br />
<br />
== Malanobis-Abstandsklassifiaktor ==<br />
* schränkt den optimalen Klassifikator noch weiter ein im vergleich zum MLK Klassifikator<br />
* Kostenfunktion für Fehlklassifikation ist konstant für alle Fehlklassifikationen<br />
* Die a posteriorie Wahrscheinlichkeit für das auftreten der Klassen sein für alle Klassen gleich<br />
* Die Kovarianzmatrizen der Gaußverteilung der Klassen sind ähnlich<br />
* Damit ist die zuordnung zu den Klassen nur noch vom Abstand zu den Klassenzentren bestimmt<br />
** Abstandsmaß ist die Mahalanobis-Distanz<br />
<br />
== Gaußklassifikator und Kernel-Densitiy-Klassifikator ==<br />
* schränken noch weiter ein<br />
# '''Gaußklassifikator'''<br />
#* keine Kovarianzen mehr in der klassen Verteilung → Kugelförmige Klassenverteilungen<br />
# '''Kernel-Density-Klassifikator'''<br />
#* Spezialfall von Gauß-Mischverteilungen<br />
#* [... was genau der Macht frage ich in der Konsultation mal nach ... im Skript steht nix brauchbares]<br />
<br />
== LUT-Klassifikator ==<br />
* direktes Verwenden der Stichprobenhistogramme<br />
* erforder Closing im Merkmalsraum da nicht alles durch die Stichproben abgedeckt werden wird<br />
<br />
= Clusterverfahren (Farbpixelklassifikation 19 - 29) =<br />
* Ziel ist es komplexe Klassenbeschreibungen durch mehrere parametrische Einzelcluster zu approximieren<br />
* Beliebig komplexe Klassenformen lassen sich so Speichereffizient beschreiben<br />
* trotz Komplexer Beschreibung bleibt eine weiche Klassengrenze möglich<br />
<br />
== Erzeugen der Cluster ==<br />
=== Radiusrestriktionsmethode ===<br />
* keine Startpartition erforderlich<br />
* indirekte Optimierung: Zielfunktion dient nur der Bewertung der fertigen Partition<br />
* Ablauf:<br />
*# Erstes Element initialisiert das erste Cluster<br />
*# Alle Elemente werden einem Cluster zugeordnert wenn der Abstand zum Clusterzentrum unterhalb eines bestimmten Wertes liegt<br />
*# Für alle Elemente die damit ausserhalb der Cluster liegen wird ein neuer Cluster angelegt<br />
*# Wichtig ist eine gute Radiusschätzung der Cluster (Varianz der Stichprobe durch Anzahl der gewünschten Cluster)<br />
*# als Gütefunktion nutzt man die Quadratische Abweichung von den Clusterzentren<br />
<br />
=== Minimaldistanzmethode ===<br />
# Ausgangspunkt ist eine nur die Radiusrestriktionsmethode erstellte Partition<br />
# Alle Klassen Mittelpunkte werden neu Berechnet<br />
# Berechnen einer neuen Minimaldistanzpartiton anhand einer gewählten Metrik<br />
# Ein Abbruchkriterium entscheidt über das weitere vorgehen<br />
#* Kriterium für Partition ist besser geworden → mache Weiter<br />
#* Anzahl der Interationschritte überschritten → Abbruch<br />
#* Anzahl der Interationschritte noch nicht überschritten && Kriterium für Partition ist gleich geblieben → mache weiter<br />
#* Kriterium für Partition ist schlechter geworden → breche ab<br />
<br />
=== k-Means-Austauschverfahren ===<br />
# Ausgangspunkt ist eine Startpartition<br />
# Merkmalsvektoren umgruppieren wenn die distanz zu einem anderen Klassenzentrum kleiner ist als zum aktuellen<br />
# Neu berechnen der Klassenmetriken<br />
# Abbruch wenn anzahl der Interartionsschritte überschritten ist oder keine Umgrupierung mehr erfolgt<br />
* Meist eingesetzt wird die Mahalanobis-Distanz → Hypereliptische Cluster die sich wunderbar eignen langgestreckte Verteilungen zu approximieren<br />
= Trennfunktionsklassifikatoren (Farbpixelklassifikation 30 -39) =<br />
* Bei gegen Null gehenden Verteilungsdichten trangen weit entfernte Regionen keine Aussagekraft mehr → daher ist es Angebracht eine Rückweisungsklasse einzuführen<br />
<br />
== Mahalanobis ==<br />
* Verwenden der Mahalanobis-Distanz zur Klassifikation<br />
* wenn die Hauptdiagonale der Kovarianzmatrix >> als die restlichen Matrixelemente<br />
** Vereinfachung des Distanzmaßen möglich zu einem achsenparallelen Elipsoiden<br />
* wenn Streuung der einzelnen Merkmale gering ist vereinfacht sich der Ellipsoid zu einer Kugel (euklidisches Abstandsmaß)<br />
* wenn Streuung in den Klassen etwa gleich Groß ist können die Klassenspezifischen Skalierungen entfallen<br />
<br />
== Hyperquader-Klassifikation ==<br />
* Zur Zuordnung sind nur noch Intervalltests notwendig<br />
* Sehr grobe approximation der Klasse da meist elliptische Datenverteilungen auftreten<br />
* Funktioniert gut bei dekorrelierten Merkmalen → achsenparallele Ellipsen<br />
* schnell und einfach<br />
* kann eingesetzt werden um die Überlappung von Klassen zu abzuschätzen<br />
<br />
== Decision-Tree-Klassifikator ==<br />
* Verwenden einfacher Schwellen zur Abgrenzung der Klassen<br />
* Klassenbeschreibungsräume werden durch meherere Grenzen beschrieben<br />
* Effiziente Beschreibung erfolgt mit Bäumen<br />
<br />
== Linear Klassifikator → Hyperebene ==<br />
* Trennen des Merkmalsraumes mittels Hyperebene in zwei Halbräume<br />
* Separierbare Zweiklassenprobleme sind damit lösbar<br />
* Nichtlineare Klassengrenzen können stückweise lineare Aproximation mit mehreren Teilebenen gelöst werden<br />
* mittels Gradientenabstieg wird die Hyperebene angepasst<br />
* Eeiterentwicklung ist die SVM<br />
<br />
== Support Vector Machines ==<br />
<br />
== k-Nächster-Nachbar-Klassifikator ===<br />
<br />
= Neuronale Klassifikatoren (Farbpixelklassifikation 40- 45) =<br />
= Segmentierung (Seg 1 - 8) =<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Grundlagen_der_Farbbildverarbeitung&diff=6997Grundlagen der Farbbildverarbeitung2009-03-17T13:14:22Z<p>DarkGhost: /* Decision-Tree-Klassifikator */</p>
<hr />
<div>Link zum [http://www.zbs-ilmenau.de/intern/vip-toolkit/index.php Vip toolkit]<br />
= Einführung (GF_a 8 - 47) =<br />
<br />
== Geschichtliches zur Farbe ==<br />
<br />
=== Newton ===<br />
<br />
* 1672: New Theory about Light and Colours<br />
** Sonnenlicht = Mischung einzelner Farben<br />
** Spektralfarben sind objektive Eigenschaft des Lichtes<br />
<br />
[...]<br />
<br />
=== Goethe ===<br />
<br />
[...]<br />
<br />
== Begriff der Farbe ==<br />
<br />
* '''Farbe im engeren Sinn, stellt eine spezielle menschliche Sinneswahrnehmung dar'''<br />
* <math>\Phi_i = \int_{\Delta \lambda_i} \varphi_{\lambda} (\lambda) d \lambda</math><br />
* Leistungsdichte <math>\phi (\lambda)</math> stellt dagegen den Farbreiz dar, der die Farbempfindung hervorruft<br />
* Vektoren <math>\underline \Phi</math> sind je nach Dimension mehr oder minder genaue Approximationen des Farbreizes<br />
<br />
* Orientierung am menschlichen visuellen System und die Betrachtung psychologischer und physiologischer Grundlagen sind von Interesse:<br />
** zur richtigen Bewertung der Schwierigkeiten und Herausforderungen bei der Schaffung technischer Lösungen<br />
** zur Anpassung technischer Lösungen der Bildwiedergabe an das visuelle System<br />
** zur Nutzung optimaler Naturprinzipien für technische Lösungen<br />
** weil technische Systeme im allgemeinen auf dem inneren Modell des Menschen von der Welt beruhen und dieses Modell in hohem Maße durch den visuellen Kanal des Menschen beeinflusst ist<br />
** weil optoelektronische Sensoren, Bildverarbeitung und Bildanalyse wichtige Schnittstellen zwischen Mensch und Maschine darstellen<br />
**weil viele Objekteigenschaften durch visuelle Eindrücke beschrieben werden<br />
<br />
* menschliches Auge kann ca. 100 Graustufen / ca. 300 000 Farben unterscheiden<br />
<br />
* Drei grundsätzliche Anwendungen von Farbinformation:<br />
** Pseudokolorierung<br />
** Falschfarbendarstellung<br />
** Echtfarbdarstellung (True Color) <math>\rarr</math> hier Schwerpunkt<br />
<br />
== Farbtäuschung ==<br />
<br />
* Zuordnung zwischen Physik und Wahrnehmung nur eindeutig wenn bunte Dinge isoliert betrachtet werden<br />
* Werden bunte Objekte in bunte Umgebungen eingebettet/bewegt, dann können abweichende Farbwahrnehmungen auftreten, so genannte Farbtäuschungen<br />
* es existieren unterschiedliche Arten solcher Täuschungen:<br />
** ''Farbinduktion oder simultaner Farbkontrast'' (Farbe wird durch ihre Umgebung modifiziert)<br />
** ''Farbkonflikt'' (es konkurrieren verschiedene Sehinformationen miteinander)<br />
** ''Subjektive Farben'' (es werden bunte Farbtöne wahrgenommen, die nicht vorliegen)<br />
<br />
'''Simultaner Farbkontrast:'''<br />
* erstmals 1839 beschrieben<br />
* wo der Effekt entsteht (Auge, Cortex) ist unklar<br />
<br />
'''Farbinduktion:'''<br />
* bei kleinteiligen, sich wiederholenden Strukturen erfolgt Angleichung<br />
* kann zur Rauschunterdrückung oder zur Unterdrückung von Feintexturen zugunsten der Erkennung größerer Objekte wichtig sein<br />
<br />
'''Farbkonflikt:'''<br />
* Formen und Strukturen konkurrieren mit Farben ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf White'sche Illusion])<br />
<br />
'''Subjektive Farben:'''<br />
* durch Bewegung ist es möglich Farben zu erzeugen die ursprünglich nicht vorhanden waren ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf Drehwurm in Farbe])<br />
<br />
== Farbwahrnehmung beim Menschen ==<br />
<br />
[...]<br />
<br />
=== Rezeptive Wahrnehmung ===<br />
* 1807 stellte Young die Hypothese auf das Farbsehen auf drei Arten von Sinneszellen beruht (rout,grün,blau)<br />
* erst 1964 konnten dies bewiesen werden, durch die Messung der Absorptionsspektren<br />
*[[Datei:Pdt-kurven.svg]]<br />
<br />
=== Postrezeptive Wahrnehmung ===<br />
* Mit dem 3 Farbenmodell konnten einige psychologische Erscheinungen nicht erklärt werden<br />
** Es werden 4 Farben als besonderst "rein" empfunden (Rto, Geln,Grün, Blau)<br />
** Unbunte Farben werden werden als das fehlen von Farben wahrgenommen<br />
** Schwarz schein gleichberechtigt zu Weiß<br />
** keine wahrgenommene Farbe erscheint zugleich rötlich und grün<br />
* das führte zur Gegenfarbentheorie die anfangs nur Psychologisch begründet war 1958 aber physiologisch Nachgewiesen werden konnte<br />
** Rot - Grün<br />
** Gelb - Blau<br />
** Schwarz - Weiß<br />
* → CIELab-Farbraum<br />
<br />
=== Kortikale Kodierung ===<br />
* Weder die 3 Farbentheorie noch die Gegenfarbentheorie beschreiben die bewusste Wahrnehmung des Menschen<br />
* Deshalb erweitertes Modell<br />
** Farbton / Buntton beschreibt die als besonderst rein empfundenen Spektralfarben<br />
** Sättigung beschreibt wie stark eine Farbe verblasst ist<br />
** Helligkeit beschreibt, wie hell oder dunkel eine Farbe ist<br />
* Wo/Wie genau die neuronale Verarbeitung erfolgt, ist noch nicht sicher belegt<br />
<br />
== Die Ordnung in der Welt der Farben ==<br />
* Newton kannte die Wellenlänge noch nicht → er ordnete die Farben nach dem Regenbogen<br />
* Goethe verwendete das Gegenfarbenmodell<br />
* Munsell schlug 1905 ein Farbordnungssystem vor bei dem alle Abstände zwischen den Farben Empfindungsmäßig gleich sind<br />
** führt zu einem geometrisch nicht regelmäßigen Körper<br />
<br />
== Das Modell der Farbe ==<br />
* '''Definition'''<br />
** Farbe ist diejenige Gesichtsempfindung eines dem Auge strukturlos erscheinenden Teils eines Gesichtsfeldes durch die sich diser Teil bei einäugiger Betrachtung mit unbewegtem Auge von einem gleichzeitig gesehenen ebenfalls strukturlos angrenzendem Bezirk allein unterscheidet (unbunte Farben: Schwarz, Weiß und Graustufen, bunte Farben: Helligkeit; Buntheit setzt sich aus Buntton und Farbsättigung zusammen)<br />
** Farbe ist durch Helligkeit, Buntton, Sättigung eindeutig bestimmt → 3D Modell<br />
*** drei linear unabhängige Größen<br />
*** Additive Mischung zur Reproduktion von Farbe (aus Rot, Grün, Blau)<br />
*** drei linearunabhängige Größen spannen immer einen Raum auf → Rot,Grün und Blau werden die Achsen dieses Raumes<br />
<br />
=== Farbvalenz ===<br />
* Mit unserem Modell läßt sich jede Farbe als linearkombination unserer drei Basisvektoren aufschreiben<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
** <math> \vec F</math> ... Farbvalenz<br />
** <math> \vec r, \vec g, \vec b </math> ... die drei Basisvektoren die den Raum aufspannen (Rot, Grün und Blau)<br />
** <math> R,G,B, |\vec F| </math> ... die Farbwerte<br />
** <math> \vec r \cdot R, \vec g \cdot G, \vec b \cdot B </math> ... die drei Primärvalenzen<br />
* Ermittelt werden die Farbwerte mit Hilfe der Vergleichsmethode<br />
** Eine Person vergleicht ein Target mit einer Farbe die aus den drei Primärvalenzen gemischt wird<br />
** wenn die Empfindung der beiden Farben gleich ist, dann notieren wir die Werte<br />
* Innere Farbmischung<br />
** das Target wird mit weißen Licht beleuchtet und wir drehen nur an dem Farbmischgerät<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
* Äußere Farbmischung<br />
** Wir beleuchten das Target mit farbigen Lichte<br />
**<math> \vec F+ B \cdot \vec b = R \cdot \vec r + G \cdot \vec g \rightarrow \vec F = R \cdot \vec r + G \cdot \vec g - B \cdot \vec b</math><br />
<br />
=== Farbreizmetrik ===<br />
* Die Farbreizfunktion <math> \varphi_\lambda</math> beschreibt die spektrale Zusammensetzung der Farbempfindungen<br />
*# Selbstleuchtende Objekte<br />
*#* <math> S_\lambda (\lambda)</math> beschreibt die spektrale Verteilung der Quelle<br />
*#* Wahrnehmung: <math> \varphi_\lambda = S_\lambda</math><br />
*# Auflicht Vorlagen<br />
*#* <math>\beta_\lambda(\lambda)</math> beschreibt den spektralen Remisionsgrad der Vorlage<br />
*#* Wahrnehmung: Licht reflektiert von der Vorlage <math> \varphi_\lambda = S_\lambda \cdot \beta_\lambda</math><br />
*# Durchlichtvorlagen<br />
*#* <math>\tau_\lambda(\lambda)</math> spektraler Transmissionsgrad der Vorlage<br />
*#* Wahrnehmung von Licht welches die Vorlage durchdrungen hat <math>\varphi_\lambda= S_\lambda \cdot \tau_\lambda</math><br />
* Damit haben folgende Faktoren Auswirkung auf die Wahrgenommene Farbe<br />
*# Die Beleuchtung des Objektes (Spektrale Zusammensetzung des Lichtes der Lampe)<br />
*# Das Remmisionsverhalten der beleuchteten Oberfläche<br />
*# Die wellenlängenabhängige Empfindlichkeit der drei Zapfen des Auges<br />
* Es besteht die Möglichkeit die pdt Kurven direkt zur Beschreibung des Farbempfindens zu nutzen<br />
* Die Farbwerte könnte man dann wie folgt ermitteln: <math> \left(\begin{matrix}P\\D\\T\end{matrix}\right)=k\int_{380\mathit{nm}}^{780\mathit{nm}}\varphi (\lambda )\cdot \left(\begin{matrix}p(\lambda )\\d(\lambda )\\t(\lambda )\end{matrix}\right)d\lambda </math><br />
* Für die technische Darstellung von Farbe werden allerdings R,G,B werte benötigt<br />
* Die dafür notwendigen Spektralwertkurven können mit Hilfe der Vergleichsmethode ermittelt werden<br />
* Man erhält damit folgende Kurven<br />
[[Datei:SpektralwertfunktionenRGB.jpg]]<br />
* Mit der gleichen Formel wie bei der pdt Kurve lassen sich nun die R,G,B Werte rechnerisch ermitteln<br />
<br />
== Farbanalyse, Zusammenhang mit der Farbwidergabe ==<br />
* Das Kammera - Monitor System soll die Farbe exakt wiedergeben<br />
* Der Monitor verwendet EBU Phosphore für die Farbdarstellung<br />
** haben selbst Spektralwert kurven => keine Monochromatischen Lichter mehr<br />
* Die notwendigen spektralwertkurven die die Kamera realisieren muss um die Bilder auf dem Monitor exakt darzustellen lassen sich mit Hilfe der pdt Kurven herleiten (Über forderung der Gleicheit der Farben)<br />
* Sie besitzen stark negative Anteile => Auch die Filter der Kamera müssten negative Transsmissionsgrade besitzen<br />
** technisch ist das nicht möglich<br />
* es bleibt also nur die Möglichkeit die notwendigen Parameter zur Ansteuerung des Monitors aus positive one-peak Kurven zu berechnen<br />
<br />
== Subtraktive Farbmischung ==<br />
* Die Subtraktive Farbmischung lässt sich auf die Multiplikation der Transmissionsgrade zurückführen (ein Filter lässt 50% rotes licht durch, wenn man zwei dieser Filter hintereinander legt, dann geht nur noch 25% rotes Licht durch die Anordnung (0.5*0.5 = 0.25) )<br />
* wenn <math> \tau_0 </math> die Transmission eines Filters für die normierte Dicke 1 und die normiert Dichte 1 ist dann kann man<br />
** mit dem Lambertschen Absorbtionsgesetzt die Absortption von dickern/düneren Material berechnen <br> <math> \tau = [ \tau_0]^w </math><br />
*** w ... Dicke des Materials im Verhältnis zum norm Material<br />
** mit dem Beerschen Gesetz die Transmission von Meterial mit anderer Dichte berechnen <br><math> \tau = [ \tau_0]^c </math><br />
*** c... Das Verhältnis der neuen zur alten Dichte<br />
** kann man auch kombinieren zu (Lambert-Beersches Gesetz)<br />
** <math> \tau = [ \tau_0]^{c \cdot w} </math><br />
* Da sich die Transmission Multiplikativ zusammensetzt wird auch gerne mit dem logarithmus der Transmission gerechnet (optische Dichte)<br />
**<math> D = - lg \tau = lg \frac{1}{\tau}</math><br />
** Damit vereinfacht sich das Lambert-Beersche gesetz zu: <math> D = c \cdot w \cdot D_0</math><br />
* selbstverständlich sind die Transmission <math>\tau</math> und die optische Dichte D von der Wellenlänge abhänig ... zur Übersichtlichkeit wurde das in den Formeln nur weggelassen<br />
* Bei einem Papierbild kommt zu dem Filter noch die Reflexion an der Farboberfläche und an der Papieroberfläche<br />
** Beachte das Licht was an der erste Schicht wegreflektiert wird kann icht tiefer eindringen. Nur noch <math> (1-\beta)*S </math> dringt an Licht durch den ersten Filter!<br />
*** <math> \beta </math> ... Remmisionsgrad der ersten Farbe<br />
*** <math> S </math> ... Spektrale Verteilung der Lichtquelle<br />
<br />
= Farbmetrische Schnittstellen - Farbräume (GF a 49 - 55) =<br />
<br />
<pre><br />
Unterschiedliche bildgebende Systeme<br />
z.B. Farbkameras<br />
Farbscanner<br />
Spezialkameras<br />
</pre><br />
'''Widerspruch''' <math>\updownarrow</math> Farbmetrische Schnittstelle<br />
<pre><br />
Unterschiedliche Bildwiedergabesysteme<br />
"True-Color-Darstellung"<br />
- unterschiedliche Monitore, Beamer, Drucker etc.<br />
</pre><br />
<br />
== Leuchtdichte (Luminanz) ==<br />
<br />
* Luminanz Y ist die Strahlungsleistung, bewertet mit der spektralen Empfindlichkeitsfunktion des Auges für das Hellempfinden<br />
* Y ist Leistungsproportional, wenn Lichtzusammensetzung (Leistungsdichte <math>\Theta (\lambda))</math> konstant bleibt<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* Leuchtdichte berechnet sich nach dem ''Abneyschen Gesetz'':<br />
: <math> Y = L = k \cdot \underline L^T \cdot \underline F </math><br />
:* <math>\underline L^T - </math> Leuchtdichtebeiwert: gibt an wie groß der Beitrag jedes Farbwertes der Farbvalenz zum Helleindruck ist, abhängig vom gewählten Farbwiedergabesystem<br />
* Leuchtdichte L <math>\ne</math> Intensität I<br />
: <math> I = \frac 1 3 (R+G+B)</math><br />
<br />
* die perzeptuelle Antwort unseres Auges auf die Leuchtdichte wird Helligkeit (Lightness) genannt<br />
: <math><br />
L^{\star} = \begin{cases}<br />
116 \cdot \sqrt [3] {\frac Y {Y_n}} -16, & \text{wenn } \frac Y {Y_n} > 0{,}008856\\<br />
903{,}3 \cdot {\frac Y {Y_n}}, & \text{wenn } \frac Y {Y_n} \le 0{,}008856<br />
\end{cases}<br />
</math><br />
<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: Eine Quelle die nur 18% der Luminanz einer Referenz hat, erscheint uns immer noch halb so hell wie die Referenz </span><br />
<br />
== Gammakorrektur und Luma ==<br />
* '''Gammakorrektur:'''<br />
** Aufgrund der Ansteuerung von CRT Monitoren und der verwendeten Phosphore ergibt sich ungefähr eine quadratische Abhängigkeit der Luminanz vom Videosignal<br />
** Die Luminaz der drein einzelnen Farbkanäle muss den gleichen Verlauf aufweisen. Sie dürfen sich nur in ihren Maximalwerten unterscheiden!<br />
*** Sonst ist es nicht möglich die Helligkeit zu ändern und dabei die Farbe konstant zu halten<br />
** Die Gammakorrektur sorgt dafür das die Farbwiedergabe auf dem Monitor linear verläuft und nicht quadratisch<br />
*** Notwendig damit wir die gleich Wahrnehmung erzielen können als währe das Kamera-Monitor System nicht vorhanden<br />
<br />
*'''Luma:'''<br />
** Luma ist die gewichtete Summe der drei Gammakorregierten Farbwerte R',G',B'<br />
** Damit ist Luma nicht gleich Luminanz<br />
<br />
*'''Brightness'''<br />
** Brightness ist ein Begriff der beschreibt wie stark eine Fläche Licht emmitiert oder sie hell sie erscheint<br />
** Besitzt kein festes Maß und wird daher sehr frei verwendet -> HSL<br />
<br />
== Farbsysteme, Farbräume, reduzierte Farbräume ==<br />
* Die Intensität einer Farbe ist <math> I = \frac{R + G +B}{3} </math><br />
* Wählt man die Intensität konstant mit <math>I=\frac{1}{3}</math> so ergibt sich eine Ebene die den RGB-Farb Würfel Diagonal schneidet und durch die R,G,B Eckpunkte geht<br />
* Jede Farbkoordinate kann auf diese Ebene projeziert werden -> Ermöglicht die Nutzung dieser Ebene als einfache Farbtafel<br />
** Diese Ebene kann dann noch auf die 0RG- Fläche des RGB Würfels projeziert werden ohne das die Ordnung der Farben gestört werden würde -> Der Farbton einer Farbe lässt sich allein durch r und g beschreiben<br />
* in die rg-Ebene können nun alle in RGB - darstellbaren Farben und alles existierenden Farben eingetragen werden<br />
** Danach erkennt man das sich technisch mit dem RGB-System nur ein kleiner Teil der exisiterenden Farben realisieren lässt<br />
<br />
= Das Normvalenz- oder XYZ-System (GF a 76 - 86) =<br />
* Alle Farbwerte sollen durch positive Farbwerte darstellbar sein<br />
** Für Farbmessung von Interesse<br />
** Das XYZ- Dreieck muss den spektralen Kurvenzug voll umschließen<br />
* Eine weitere Forderung ist das die Leuchtdichte als unabhängige Komponete auftreten soll<br />
* Die Fläche des Dreiecks soll so klein wie möglich sein<br />
* Die dadurch berechnbaren Normalvalenzen sind physikalisch nicht erzeugbar -> Die Spektralwertkurven für das System müssen berechnet werden<br />
** Die Berechneten Spektralwertkurven sind stets nichtnegativ -> immer positive Transmissionsgrade und Sensorempfindlichkeiten<br />
[[Bild:NORMXYZ1.JPG]]<br />
* Mit dem XYZ-System kann man nun Farbdreiecke vergleichen und Bewerten<br />
** Abstände, Fehler und Systemeigenschaften sollten aber in einem empfindungsmäßig gleichabständigen Farbraum bewertet werden (u'v'w' und CIELab)<br />
* '''Optimalfarbkörper'''<br />
** Beschreibt die Grenze aller darstellbaren Körperfarben<br />
** Zur Erstellung schneidet man rechteckförmige Stückchen aus dem Spektrum von Idealweißem Licht aus<br />
<br />
== Das UVW-System ==<br />
* Informationsgehalt der Farbe für den Menschen hängt davon ab welche Farbunterschiede er wahrnehmen kann<br />
* Vor allem ist das interessant wenn Bildverarbeitungsprobleme auf der menschlichen Wahrnehmung formuliert sind<br />
* xy-Farbtafel hat starke Unterschiede zwischen örtlichen Abstenden und empfindungsmäßigen Abständen -> ungeeignet<br />
* erste Lösung<br />
** lineare Transformation<br />
** W' -> Helligkeit<br />
** U' -> Rot-Grün Bundheit<br />
** V' -> Gelb-Blau Bundheit<br />
** Ergebnis<br />
*** Wesentlich besseres Darstellung der Empfindung (Faktor 10 gegenüber dem XYZ-System)<br />
* verbesserte Lösung<br />
** verwenden einer nicht linearen Abbildung (Auge wird mit berücksichtigt)<br />
<br />
== L*a*b* oder CIELAB-Raum ==<br />
* Gegenfarbmodell<br />
* empfindungsmäßig gleichabständiger Raum<br />
* Grundsätzlich zur Angabe von Farbabweichungen verwendet<br />
** Geeignet zur Bewertung von Druckern, Monitoren und Abweichungen von Nachfärbungen<br />
* als Farbdifferenzmaß wird der euklidische Abstand benutzt (<1 nicht mehr Wahrnehmbar)<br />
<br />
== L*u*v* oder CIELUV ==<br />
* für additive Mischung vorgesehen<br />
* wie der CIELAB- Raum ein empfindungsmäßiger gleichabständiger Raum<br />
<br />
== YCbCr - Crominanzwertsystem ==<br />
* Entwickelt damit Farbfernsehen und S/W-Fernsehen Parallel betrieben werden konnten<br />
* Crominanzwerte<br />
** sind von Leuchtdichte befreite Werte<br />
** verschwinden für alle unbunten Farben<br />
** Cr= R-Y, Cg = G-Y, Cb = B-Y<br />
** Das System aus CrCbCg und Y ist überbestimmt => Es reicht die Übetragung von Cr , Cb und Y<br />
* Da das Auge auf Helligkeitsunterschiede empfindlicher reagiert als auf Farbunterschiede können die Crominanzwerte mit geringerer Auflösung übertragen werden<br />
<br />
== ΘSY - System ==<br />
* Der Bunttonwinkel Θ berechnet sich aus dem Verhältnis der Crominanzwerte Cb und Cr<br />
* Die Sättigung S ist der Betrag des Vektors CrCb<br />
<br />
== HSI - Farbraum ==<br />
* Intensität: <math> I= \frac{R+G+B}{3} </math><br />
* Sättigung: <math> S = 1 - 3 \cdot min (r,g,b) </math><br />
* Hue: <math> H= \left\{ \begin{matrix}\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B\le G \\ 2\pi -\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B>G \end{matrix}\right . </math><br />
* Raum ist nicht gleichmäßig gefüllt<br />
* bei kleinen Intensitäten I in Buntton und Sättigung Instabil<br />
* Es kann bei Farbmanipulationen dazu führen das es keine Entsprechungen im RGB gibt<br />
** Lösungen:<br />
*** Dachförmige Begrenzung des HSI Raums -> sehr Aufwendig<br />
*** Normieren der Intensitäten -> Bild kann ins dunkle verschoben werden<br />
*** Maximalwert setzen -> Falsche Farbwerte (werden ins unbunte verschoben)<br />
*** proportionales skalieren bis Farbe im RGB-Würfel liegt<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
<br />
== HSL - Farbraum ==<br />
* Gern für Computergrafik verwendet<br />
* einfache Beziehungen<br />
* Die Verwendeten Biegriffe H,S,L entsprechen nicht der Bedeutung in der Farblehre und Form des Raumes<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
* Buntton ist extrem instabil bei kleinen Sättigungen<br />
* Form des Raumes ist unpraktisch<br />
<br />
= Farbmessung (GF 1 - 11) =<br />
<br />
* Farbmessung = Ermittlung der drei zu einer Farbvalenz gehörigen Farbmaßzahlen<br />
* 3 Messmethoden: <br />
** Vergleichsmethode oder Gleichheitsverfahren<br />
** Spektralverfahren<br />
** Dreibereichsverfahren<br />
<br />
== Gleichheitsverfahren ==<br />
<br />
* Vergleiche:<br />
** Vorlage mit additivem Gemisch<br />
** Vorlage mit Farbmusterkarten (DIN-Karten)<br />
* unverzichtbar bei physiologischen Untersuchungen<br />
* aufwendig und bei kleinen Probandengruppen ungenau<br />
* d.h. für technische Messungen ohne Bedeutung<br />
<br />
'''Messbedingungen nach DIN:'''<br />
* helladaptiertes und blendfreies Sehen<br />
* unbunter Messraum<br />
* neutrale Gesichtsfeldumgebung mit gleicher oder etwas kleinerer Leuchtdichte als im Messfeld<br />
* gut ausgeruhtes und neutral gestimmtes Auge<br />
* farbnormalsichtiger Beobachter<br />
<br />
== Spektralverfahren ==<br />
<br />
* zu messende Farbvalenz = Summe spektraler Farbvalenzen<br />
* greift auf gemessene Normspektralwertkurven zurück<br />
<br />
# '''spektrale Messung zur Ermittlung der Farbreizfunktion <math>\varphi (\lambda) </math>'''<br />
#* Selbststrahler: direkte Messung der Strahlungsfunktion <math>\rightarrow \varphi (\lambda)= S (\lambda)</math><br />
#* remittierende Vorlage: Remissionsfunktion der Vorlage messen, d.h. Strahlungsfunktion S ist vorher zu bestimmen und aus <math>\varphi (\lambda)</math> heraus zu rechnen <math>\rightarrow \varphi (\lambda)= \beta (\lambda) \cdot S (\lambda)</math><br />
# '''farbvalenzmetrische Auswertung'''<br />
#* wenn <math>\beta (\lambda)</math> ermittelt wurde, kann jede beliebige (tabellierte) Lichtquelle <math>S^{\ast} (\lambda)</math>eingesetzt werden<br />
#: <math><br />
\begin{bmatrix}<br />
X\\Y\\Z<br />
\end{bmatrix}<br />
= k \cdot<br />
\begin{bmatrix}<br />
\int \bar{x} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{y} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{z} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda<br />
\end{bmatrix}<br />
</math><br />
#* Normierungskonstante k:<br />
#** Selbststrahler: nur Farbwertanteile gefragt, d.h. k ist beliebig<br />
#** Körperfarben: Y für mattweißen Körper = 100, d.h. <math>k=\frac{100}{\int {S(\lambda) \cdot \bar{y}(\lambda) d \lambda}}</math><br />
<br />
'''Messgeometrien:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bildergalerie (45°,8°,Transmission) </span><br />
<br />
* ''45°-Geometrie'': Beleuchtung unter 45° schließt Glanzeinfluss aus <math>\rightarrow</math> Sensor blickt senkrecht auf Probe<br />
* ''8°-Geometrie'': Beleuchtung diffus über Ulbricht-Kugel <math>\rightarrow</math> Sensor blickt unter 8° auf Probe; Messung mit/ohne Glanz möglich<br />
* ''Transmissionsgeometrie'': Probe wird durchleuchtet<br />
<br />
== Dreibereichsverfahren ==<br />
* die drei Farbwerte werden direkt photometrisch gemessen<br />
* Filter und spektrale Empfindlichkeite der Strahlungsempfänger müssen an die spektrale Bewertungsfunktion angepasst sein<br />
* '''Luther-Bedingung:''' <math> \tau_x(\lambda) = \frac{c_x \cdot x(\lambda)}{s_1(\lambda)}</math><br />
** <math> \tau_x(\lambda) </math> ... Filtertransmission<br />
** <math>s_1(\lambda)</math> ... Sensorempfindlichkeit (hier im ersten Kanal)<br />
** <math>c_x</math> ... Gerätekonstante<br />
** Für den Y und Z Kanal ist die Formel analog<br />
* Der notwendige Filter kann gut durch ein Set von Schmalbandigen Filtern realisiert werden<br />
<br />
== Spektralmaskenverfahren ==<br />
<br />
* spezielles Dreibereichsverfahren<br />
* Lichtzerlegung erfolgt mit einem Prisma<br />
* Das zerlegte Lich beleuchtet eine Maske (Papier, Plaste, Metal .... ne richtige echte Maske)<br />
* Messen der spektralen Verteilung (CCD-Zeile)<br />
* Ähnlich dem Spektralverfahren nur das das spektrum bereits im analogen entsprechend gewichtet wird<br />
<br />
== Metamerie ==<br />
* zwei Farbproben die bei einer bestimmten Beleuchtung gleich aussehen können bei einer anderen Beleuchtung ganz anderst aussehen<br />
* Der Metermarie-Index beschreibt diesen durch Beleuchtungswechsel entstehenden Farbwechsel<br />
* KEIN Maß für die Farbkonstantheit sondern für den Unterschied von zwei Proben<br />
* Berechnung erfolgt im L*a*b* Raum <br> <math> M_T = \sqrt {(L_{1T}-L_{2T}+L_{2B}-L_{1B})^2 +(a_{1T}-a_{2T}+a_{2B}-a_{1B})^2+(b_{1T}-b_{2T}+b_{2B}-b_{1B})^2 } </math><br />
** T ... Testlicht<br />
** B ... Bezugslicht<br />
** 1,2 ... Probennummern<br />
<br />
= Klassifikation von Messaufgaben (GF 82 - 86) =<br />
<br />
# Messung von objektiven Eigenschaften, die sich in der Veränderung spektraler Charakteristika niederschlagen<br />
#* vordergründig ist Zusammenhang zwischen Veränderungen in den physikalischen Eigenschaften von Interesse (z.B. Waferinspektion)<br />
#* Zusammenhang sollte eindeutig und von hinreichender Empfindlichkeit sein<br />
#* Wahrnehmung unterschiedlicher Farben eher Nebeneffekt<br />
# Überwachung der Stabilität von farblichen Erscheinungen<br />
#* ist bei einer oder mehreren Beleuchtungen zu überwachen<br />
#* absolute Farbmessung nicht nötig; "Anlernen" auf Farben genügt<br />
#* Abstände im Farbempfinden müssen sich in gleicher Weise in Veränderungen der Sensorsignale wiederspiegeln<br />
# absolute Farbmessung<br />
#* d.h. Ermittlung der korrekten Farbvalenz unter beliebigen Messbedingungen<br />
#* Spektralwertkurven müssen realisiert werden<br />
# Messung des spektralen Remissions- und/oder Transmissionsverhaltens von Materialien<br />
#* ausschließlich spektrale Messverfahren<br />
#* Messung der Strahlungsfunktion und der remittierten Leistungsdichte<br />
#* Berechnung der Farbvalenz bei beliebiger Beleuchtung und des Metamerie-Index<br />
<br />
'''steigende Ansprüche mit steigender Nummerierung'''<br />
<br />
= Einfache Farbkalibrierung (GF 16 - 41) =<br />
* Farben sollen möglichst exakt Wiedergegeben werden<br />
<br />
== Ausgleich von Beleuchtungseinflüssen ==<br />
* Körperfarben werden durch ihre Remmision bestimmt <math> \beta </math><br />
* Bei unterschiedlicher Beleuchtung sehen Farben unterschiedlich aus aber das Auge kann sich an die Beleuchtung adaptieren<br />
** Funktioniert bei Fotos aber nicht -> Beleuchtungsausgleich ist wichtig<br />
** Bei Farbvergleich noch viel mehr<br />
** Wird realisiert durch Weißabgleich (auf integraler Farbebene nicht möglich )<br />
* Direkte Vermessung der spektralen Eingenschaften der Kamera nicht möglich (Da Werte in Kamera bereits verrechnet werden um z.B. die negativen Anteile der Spektralkurven zu realisieren)<br />
** sehr Aufwendig (Kamera auseinanderbasteln um an die echten werte zu kommen + das durchgehen durch das Spektrum in kleinen Schritten)<br />
* Daher Verwendung von Testfarben<br />
** Führt auf Lösung eines linearen Gleichungssystem<br />
** Für menschliches empfinden -> Optimieren im CIELAB-Raum<br />
* Vorsicht bei nichtlinearen Funktionen zur Farbkalibrierung -> Kann bei zu wenig Testfarben zu total falschen Ergebnissen führen !!<br />
<br />
= Color Management (F CM 1 - 20) =<br />
* verschiedene Geräte können verschiedenen Farben darstellen<br />
* verschiedene Geräte verwenden andere Grundfarben zum mischen<br />
* Mit Hilfe von Profilen (Tabellierung der Farbwerteumrechnungen) wird eine Konvertierung der Farben vom Geräteraum in den CIELab Raum bzw umgekehrt durchgeführt<br />
* in den Profilen wird auch vermerkt welche Farben darstellbar sind und welche nicht<br />
* Somit kann man eine "Druckvorschau" auch auf einem Monitor erreichen (natürlich nur für Farben die auf beiden Geräten dargestellt werden können)<br />
** Jedes Mapping der Farben (Gamut-Mapping stellt somit einen Kompromiss dar)<br />
**# Perceptual (Die Farbbeziehungen untereinander werden erhalten) Komprimierung des Gamuts bis er in den zur Darstellung verwendeten passt<br />
**# Colometrisch -> Exakte Reproduktion aller in beiden Gamuts darstellbaren Farben<br />
**## relativ -> weiß wird auf weiß abgebildet und alle anderen Farben relativ dazu<br />
**## absoult farbmetrisch<br />
**# Saturation, alle Farben außerhalb des Zielgamuts werden zugunsten der Sättiung verändert<br />
* Kalibrierung -> Versetzen des Gerätes in einen definierten, reproduzierbaren Zustand<br />
* Charakterisierung -> Modellierung eines Gerätes welches sich ein einem stabilen definierten Zustand befindet<br />
<br />
= Kameras (GF_Ka 1 - 12) =<br />
<br />
'''Einsatzfelder:'''<br />
* ortsaufgelöste Messung von Farbe<br />
* Aufnahme und Wiedergabe von True-Color Bildern<br />
* Aufnahme farbiger oder mehrkanaliger Bilder für die Verarbeitung/Analyse (Qualitätssicherung)<br />
* Photogrammetrische Anwendungen (Lösung des Korrespondenzproblems)<br />
* Radiometrische Anwendungen (Messen im Spektralbereich)<br />
<br />
'''Dreibereichsmessung:'''<br />
* setzt die Trennung von drei sich überlappenden Spektralbereichen voraus, die dann wellenlängenabhängig zu bewerten und zu integrieren sind<br />
<br />
== Dreichip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* optische Kanaltrennung und Bewertung<br />
* beste Bildqualität, da hohe Auflösung in allen drei Kanälen<br />
* keinen örtlichen Versatz der Pixel in den drei Farbauszügen<br />
* Filter einfacher und präziser zu realisieren<br />
* befinden sich z.B. als dichroitische Spiegel auf den Strahteilerprismen<br />
<br />
<span style="color:#ee0000;"> \\ Hot-Mirror-, Cold-Mirror-Korrektur????</span><br />
<br />
== Einchip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: doppelte Anzahl grüner Pixel wegen Schärfe, MTF des Auges </span><br />
<br />
* örtliche Kanaltrennung und Bewertung<br />
* Streifen- oder Mosaikfilterstrukturen auf den einzelnen Pixeln zur örtlichen Signaltrennung<br />
* 3 oder 4 unterschiedliche spektrale Auszuüge zur Erzeugung der Farbinformation<br />
* Matrix selbst kann Interline- oder Frame-Transfer-Matrix sein<br />
* kostengünstiger und kleiner als Dreichip-Kameras<br />
* Probleme:<br />
** Farbvalenzen aus örtlich versetzten Auszügen (z.B. Farbsäume an Kanten)<br />
** nicht korrigierbare Fehler aus Nichtlinearitäten und Dunkelsignalen bei der Bildung von Mischsignalen<br />
<br />
'''generelle Anforderungen an die Signalverarbeitung:'''<br />
<br />
* primäre Kamerasignale stellen keine farbmetrische Schnittstelle zur Verfügung, d.h. alle Bewertungsfunktionen sind nicht-negativ (Spektralwertkurven fordern aber negative Wichtungen)<br />
* je nach realisierten Filtern und Genauigkeitsansprüchen <math>\rightarrow</math> lineare Matrizierung (meist Kameraintern) oder komplexere Approximation<br />
* bei hohen Genauigkeitsansprüchen <math>\rightarrow</math> Umgehung der Kamerainternen Matrizierung, weil Verstärkungsfaktoren, Toleranzen, Temperaturdrift, Langzeitstabilität etc. nicht bekannt sind<br />
* insgesamt geringe Nichtlinearitäten der CCD's können in den Ansteuerbereichen der einzelnen Kanäle zu wesentlichen Fehlern führen:<br />
** Farbvalenz ändert sich kontinuirlich mit der Shutterzeit<br />
** Pixelweise DSNU- (Dunkelsignalungleichförmigkeit) und PRNU- (Hellsignalungleichförmigkeit) Korrektur vor Erzeugung der Farbvalenz erforderlich, da sich Festmusterrauschen nicht nur auf Intensität sondern auch auf Farbart auswirkt<br />
** Dunkelsignal verdoppelt sich alle 7K, Gleichanteil wird aber geklemmt<br />
** Lichtquellentyp und Langzeitverhalten wirken sich nicht nur Intensität sondern auch auf Farbtemperatur aus<br />
<br />
'''4 spektrale Bereiche:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* vorteilhaft zur Erzeugung von Farbdifferenzsignalen für die TV-Kompatibilität<br />
* im Field-Integration-Mode werden Mischsignale gebildet, die die erforderliche Signalkorrektur für hohe Ansprüche behindern<br />
* Nichtlinearität der Ausgangsverstärker wirkt sich auf Korrektur der primären Mischsignale aus<br />
<br />
== Sequentielle Einchip-Kamera ==<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* zeitliche Kanaltrennung und Bewertung<br />
* relativ genaue Approximation der Spektralwertkurven möglich<br />
<br />
== Elektrisch steuerbare Filter ==<br />
<br />
* über die Wellenlängenabhängigkeit der Eindringtiefe der Photonen und die Steuerbarkeit der Tiefe der Potentialmulden der sensoren lassen sich steuerbare spektrale Empfindlichkeiten erzeugen<br />
<br />
= Verarbeitung von Farbbildern (1 - 31) =<br />
* Das unabhängige verarbeiten der Farbkanäle eines Farbbildes führt zu Nebeneffekten wie Farbsäume<br />
* Die höhere Vielfalt des mehrdimensionalen Raumes von Farbbildern kann Vorteilhaft genutzt werden für Pixelklassifikation, Segmentierung <br />
* Abstände, Mittlere Werte und örtliche Veränderungen sind in empfindungsmäßig gleichabständigen Räumen zu definieren und zu bewerden<br />
<br />
== Histogramme und Statistiken für Farbbilder ==<br />
* Farbbilder liefern dreidimensionale Häufigkeitsverteilungen im Farbraum → können als Approximation der entsprechenden 3D-Dichten verwendet werden<br />
* statistische Zusammenhänge zwischen den Kanälen werden in mehrdimensionalen Dichten betrachtet<br />
** Für Handauswertung meist nur 2D-Dichten, wegen der Übersicht<br />
** Für maschinelle Auswertung können diese dichten auch dreidimensional werden<br />
** für die parametrische Darstellung der Cluster werden meist multivariante Gaußverteilungen eingesetzt<br />
*** Einr Gaußverteilung ist für die Beschreibung eines Bildes mit mehreren Objekten nicht geeignet<br />
*** Die Kovarianzmatrix einer solchen "Approximation" kann aber gut zur Einschätzung der Streuung und der Mittelwerte in dem Bild eingesetzt werden<br />
<br />
=== Histogramm - Modifikationen ===<br />
* Contrast Streching, Polygonal Image Scaling, Histogram-Equalisation Siehe [[Grundlagen der Bildverarbeitung und Mustererkennung#homogene Punktoperationen|Grundlagen der Bildverarbeitung]]<br />
* Manipulation kann in verschiedenen Farbräumen ausgeführt werden (RGB,HSI,...)<br />
** In nicht empfindungsmäßig gleichabständigen Räumen muss die Transformation nicht unbedingt zum Ziel führen<br />
==== Manipulation im Farbraum RGB ====<br />
* ist der Farbraum in dem die Daten häufig vorliegen<br />
* Wirkung kann auf Grund der starken korrelation der RGB Werte bei geringen Sättigungen ausbleiben<br />
* Farbverfälschung wenn einzelne Kompontenen unabhänig von einander behandelt werden<br />
* hohes apriori-Wissen notwendig<br />
* wenn Falschfarbdarstellung gewünscht ist kann dies das mittel der Wahl sein<br />
<br />
==== Manipulationen im Farbraum HSI ====<br />
* unproblematisch in Bezug auf Farbverfälschungen<br />
* Zielsetzungen können sich einfacher beschreiben lassen (ähnelt der Beschreibung von Farbe durch den Menschen)<br />
* unabhängige Komponente (Intensität)<br />
* Kontrastverbesserung durch Sättigungsausgleich ohne Farbveränderung möglich<br />
* Stabilitätsprobleme nahe den unbunten Farben<br />
# '''Ausgleich des Intensitätshistogramms'''<br />
#* Werte möglich die keine entsprechung mehr im RGB haben → müssen geeignet herruntergerechnet werden<br />
#* bei kleinen Intensitäten sind die Bunttöne instabil → ausschließen von Veränderungen<br />
# '''Sättigungsausgleich'''<br />
#* Modifikation der Sättigung unter Beibehaltung des Bunttones<br />
#* Bei kleinen Sättigungen und kleinen Intensitäten ist der Buntton instabil → Ausschließen<br />
#* Histogramm über alle Bunttöne ist häufig verschmiert → besser Histogramm über Buntton Segmente<br />
# '''Bunttonausgleich'''<br />
#* Ziel sind Farbfalschbilder um Objekte besser unterscheiden zu können<br />
#* bei zu großen Buntton Änderungen wird die Interpretierbarkeit nur bei homogenen Flächen verbessert, meist wird sie eher verschlechtert<br />
#* Unsicherheit des Bunttons → bei geringen Sättigungen und Intensitäten ist der Buntton auszuschließen<br />
<br />
== segmentgesteuerte Farbvalenztransformationen ==<br />
* Globale Statistiken werden häufig durch nicht interressante Objekte dominiert<br />
* Ausweg ist das Betrachten von Ausschnitten und anwenden der Transformationen auf die Ausschnitte<br />
* erfordert zu erst das Segmentieren des Bildes<br />
<br />
= Referenzfreie Farbadaption auf Basis des 3D-Histogramms (HuS 32 - 39 ) =<br />
* unter bestimmten umständen kann auf eine Kalibrierung der Kamera mittels Referenzfarben verzichtet werden<br />
* Zur Korrektur soll die parametrische Approximation der 3D-Histogramme durch multivariante Gaußverteilungen genutzt werden<br />
== Vorraussetzungen für die Anwendbarkeit ==<br />
* Strukturierte Szene mit mehreren ntürlichen Objekten, die gleichmäßig über den Bunttonwinkel verteilt sind und durchschnittlichen Sättigungsgrad aufweisen<br />
* Langgestreckter SW-Prozess im Vergleich zum Rot-Grün und Blau-Gelb Prozess<br />
<br />
== Vorgehensweise ==<br />
* Korregieren von "vermutlichen" Abweichungen des Bildes in der Unbuntheitsachse<br />
* Dazu Ermitteln der Hauptachsen mit PCA<br />
* Drehen der Hauptachse in den SW-Prozess<br />
* Rücktransformation und Darstellung<br />
<br />
= Histogrammbasiertes Farbmatching(1 - 15) =<br />
* Histogramme sind im 2D Bild invariant gegenüber Rotation, Translation und Maßstab (wenn die Angaben relativ erfolgen !)<br />
* Histogramme sind auch relativ stabil gegenüber moderaten Verdeckungen und 3D-Rotation<br />
* Grobe Quantisierung der Histogramme um Fehlertoleranz zu erhöhen<br />
* Damit können Histogramme zur Objekterkennung eingesetzt werden → Bezeichnet als Color Indexing<br />
<br />
== uniformes Binning ==<br />
* einteilen der Farben in ein gleichverteiltes Histogramm<br />
* Suche in einem Bild den Ausschnitt welcher eine minimale Distanz zum Referenzbild hat<br />
* Als Abstandsmaß verwendet werden die Histogramme genutzt<br />
** Summe der Quadratischen Differenzen (Histogramme als Vektoren betrachtet und dann den euklidischen Abstand berechnet ohne Wurzel)<br />
** Earth Movers Distance (Berechnen was sich wohinverteilt haben könnte ... erfordert die Lösung des Transportproblems)<br />
* einfach aber die Bins ändern sich Sprunghaft, vor allem dann wenn Farben knapp an den willkürlichen Bingrenzen liegen<br />
<br />
== Unscharfe Chroma-Orts-Histogramme ==<br />
* Nachteile des uniformen Binning sollen überwunden werden<br />
* Alle Pixel bekommen eine unscharfe Klassenzugehörigkeit (Binnzugehörigkeit) je nach Abstand zum entsprechenden Binnmittelpunkt (wie bei [[Softcomputing|Fuzzy-C-Means]])<br />
** Ein Parameter ermöglicht dabei die Verunschärfung einzustellen (von total unscharf bis zum festen Binning)<br />
* Auch der absolute Ort der Segmente (aus denen die Histogramme erstellt werden) soll mit verwendet werden<br />
** Dazu wird das Bild in entsprechende Bereiche geteilt (8x8,16x16,...)<br />
** Alle Blöcke werden durchnnummeriert<br />
** Auch hier kommt es zu harten Umbrüchen wenn Pixel knapp an den Grenzen liegen → auch hier verunschärfen<br />
** Welche Indizees haben die Nachbarn? (Nachbarschaft in den Indizees der Blöcke heißt nicht gleich 2D-Nachbarschaft)<br />
<br />
== Cluster mittels Graphenansatz ==<br />
* Ziel ist es:<br />
** Sprunghafte Änderung der Binns zu verhindern<br />
** wenige Merkmale zu verwenden<br />
** Eng beieinander liegende Maxima trotzdem unterscheiden zu können<br />
* Verwendete Bilddaten:<br />
** Farbwinkelhistogramm, wenn Sättigung der Farben ausreichend ist<br />
** Intensitätsdiagramm, wenn Sättigung der Farben zu gering wird<br />
* Vorgehen:<br />
** Jeder Wert im Histogramm zeigt auf den Größten in seiner Nachbarschaft<br />
** Das Maximum zeigt auf sich selbst → Wird Merkmal<br />
** Weiteres Merkmal ist die Fläche die zum Maximum gehört (Nachbarn die direkt bzw. indirekt auf das entsprechende Maximum zeigen)<br />
* Match:<br />
** Finde ein Tupelpaar (Maxima in Referenzhistogram und Suchhistogram mit dem geringsten Abstand)<br />
** Ziehe gemeinsame Fläche von jedem Tupel des Paares ab<br />
** summiere gemeinsame Fläche (?)<br />
** Wiederhole bis sich keine Tupelpaare mehr bilden lassen<br />
** beziehe die laufende Summe auf das Maximum der Summe der ursprünglichen Flächen<br />
<br />
= Störunterdrückung (SU 1 - 16) =<br />
* Für nachfolgende Verarbeitungsschritte ist die Störunterdrückung sehr wichtig<br />
* Verschiedene verfahren der Rauschunterdrückung sind in [[Grundlagen der Bildverarbeitung und Mustererkennung#Lokale Operatoren zur Bildverbesserung (LOa 1 - 44) |BV]] eingeführt worden<br />
<br />
== Störunterdrückung durch Faltungsfilter ==<br />
* Anwendung wird einfach vektoriell durchgeführt (als würde man drei unabhängige Bilder gleichzeitig Filtern wollen)<br />
* es entstehen neue Farbtöne an den Übergängen zwischen Farben<br />
* im HSI Farbraum ist eine getrennte Betrachtung der Farbe und der Sättigung/Intensität möglich<br />
* Buntton ist zyklisch → muss bei der Mittelung beachtet werden<br />
* in der Farbe kann stärker gemittelt werden als in der Helligkeit (Auge nimmt Farbveränderungen schlechter wahr)<br />
* Komplexe Zahlen bieten sich hier als Rechenmittel an<br />
<br />
== adaptive gewichtete Mittelung ==<br />
* detailerhaltende Fähigkeiten von Filtern wegen der Farbsäume besonders von Interesse<br />
* Abstände verkomplizieren sich im Vergleich zu Grauwertbildern (Vektorabstandsmaße, Winkeldifferenzen,...) <br />
* Vorgehen nach dem Berechnen des Abstandes dann wieder Analog zur Grauwertfilterung<br />
<br />
== Medianfilterung ==<br />
* Problem bei der Übertragung des Rangordnungsgedankens auf Vektoren<br />
** Komponentenweises Vorgehen ist nicht geeignet (absolute Farbverfälschungen möglich)<br />
** Suche des besten Vertreters des SETS (wenn der verwendete Media im SET ist werden keine zu falschen Farben gewählt/gesetzt)<br />
*** kleinste Abstandssumme zu allen anderen Pixeln<br />
<br />
== Kombination von Averaging und Medianfilterung ==<br />
* Medianfilter ist gut für Impulsrauschen, schlecht bei Gauß hier ist Average gut<br />
* Bei den Filtern gibt es keinen unterschied zu den Grauwertbildern (unterschied besteht nur in der Realisierung der verwendeten Media/Average Filter nicht in ihrere Kombination)<br />
<br />
== Vektor-Richtungs-Filter ==<br />
* '''Basic Vecotr Directional Filter'''<br />
** Winkel zwischen Farbvalenzen als Distanzmaß<br />
** Ergebnis ist die Farbvalenz mit der kleinsten Winkeldifferenzsumme zu allen Valenzen des Fensters<br />
** Achromatische Rauschkomponenten werden nicht beseitigt<br />
* '''Generalized Vector Directional Filter '''<br />
** Suche nach den besten Vektoren aus Sicht der Richtung<br />
** Medianfilterung der Beträge der Vektoren<br />
* '''Directional Distance Filter'''<br />
** Vermeiden der Ineffizenz des GVDF Filters durch ein gemischtes Distanzmaß (Betrag und Winkel gleichzeitig)<br />
<br />
= Kantendetektion in Farbbildern (1 - 21) =<br />
* Wichtig für Segmentierung, Bildanalyse und Bildverstehen<br />
* [[Grundlagen der Bildverarbeitung und Mustererkennung#Kantendetektion (LK 1 - 38)| Kantenfilter]] bereits aus BV bekannt<br />
# '''Vektrogradient'''<br />
#* Berechnen der Jacobi-Matrix<br />
#* Wurzel aus dem größten Eigenwert ist der Vektorgradient<br />
#* Extrem Rechenaufwendig<br />
# '''Mittelwert der Richtungsableitungen'''<br />
#* Entspricht dem Gradienten im Intensitätsbild<br />
#* Zwei engegengesetzte Gradienten in unterschiedlichen Farben können sich gegenseitig aufheben → der Gradient der dritten Farbe dominiert egal wie klein er ist<br />
# '''Maximaler Gradient'''<br />
#* Suche nach dem Gradienten mit dem größten Betrag<br />
#* Korrelation der einzelnen Gradienten ist nicht von Bedeutung<br />
<br />
= Farbpixelklassifikation (Farbpixelklassifikation 1 - 21) =<br />
* Die Farbvalenzen bilden die Merkmale der Pixel<br />
* Anzustrebende Eigenschaften<br />
** Gute Beschreibung der Klassencluster und gute Trenneigenschaften<br />
** Einfache Belehrbarkeit (Aus Beispielen oder Expertenwissen)<br />
** Echtzeitfähigkeit<br />
** möglichst frühe Stufe der Verarbeitungskette ("Anspruchslosigkeit an das Bild")<br />
** Nutzen von Klassenzugehörigkeitsmaßen<br />
<br />
== optimaler Klassifikator ==<br />
* basiert auf dem Bayes-Theorem<br />
* findet die optimale Klassenentscheidung<br />
* Jeder Datenpunkt wird in die Klasse eingeordnet zur der er am Wahrscheinlichsten gehöhrt und bei der er die kleinsten Kosten für die anderen Klassen verursacht<br />
** Benötigt eine Risikofunktion die Angibt wie groß die Kosten bei Fehlklassifikation zwischen zwei Klassen sind<br />
*** Meist unbekannt und deswegen wird davon ausgegangen das die Kosten für jede Fehlklassifizierung gleich sind<br />
*** Kosten können durchaus auch bei richtiger Klassifikation definiert werden<br />
** Benötigt die Wahrscheinlichkeitsverteilung der Klassen im Raum (Meist unbekannt → Problem)<br />
*** können beliebig sein werden aber meist durch Gaußfunktionen approximiert<br />
*** in der Lernphase werden die Parameter dieser Verteilung geschätzt<br />
* Da Wahrscheinlichkeitsverteilung meist unbekannt ist, wird der Klassifikator ehr genutzt um einen anderen Klassifikator zu bewerten, wenn man eine bestimmt Wahrscheinlichkeitsverteilung festlegt (wie optimal ist der andere Klassifiaktor)<br />
<br />
== Maximum-Likliehood-Klassifikator ==<br />
* im Ansatz wie optimaler Klassifikator<br />
* setzten der Risikofunktion für alle Fehlklassifikationen auf einen konstanten Wert<br />
* verwenden von multivarianten Gaußdichten zur Beschreibung der Klassen<br />
* Entscheidung wird nur noch nach der a posteriori Wahrscheinlichkeit und der Klassen Verteilung gefällt<br />
<br />
== Malanobis-Abstandsklassifiaktor ==<br />
* schränkt den optimalen Klassifikator noch weiter ein im vergleich zum MLK Klassifikator<br />
* Kostenfunktion für Fehlklassifikation ist konstant für alle Fehlklassifikationen<br />
* Die a posteriorie Wahrscheinlichkeit für das auftreten der Klassen sein für alle Klassen gleich<br />
* Die Kovarianzmatrizen der Gaußverteilung der Klassen sind ähnlich<br />
* Damit ist die zuordnung zu den Klassen nur noch vom Abstand zu den Klassenzentren bestimmt<br />
** Abstandsmaß ist die Mahalanobis-Distanz<br />
<br />
== Gaußklassifikator und Kernel-Densitiy-Klassifikator ==<br />
* schränken noch weiter ein<br />
# '''Gaußklassifikator'''<br />
#* keine Kovarianzen mehr in der klassen Verteilung → Kugelförmige Klassenverteilungen<br />
# '''Kernel-Density-Klassifikator'''<br />
#* Spezialfall von Gauß-Mischverteilungen<br />
#* [... was genau der Macht frage ich in der Konsultation mal nach ... im Skript steht nix brauchbares]<br />
<br />
== LUT-Klassifikator ==<br />
* direktes Verwenden der Stichprobenhistogramme<br />
* erforder Closing im Merkmalsraum da nicht alles durch die Stichproben abgedeckt werden wird<br />
<br />
= Clusterverfahren (Farbpixelklassifikation 19 - 29) =<br />
* Ziel ist es komplexe Klassenbeschreibungen durch mehrere parametrische Einzelcluster zu approximieren<br />
* Beliebig komplexe Klassenformen lassen sich so Speichereffizient beschreiben<br />
* trotz Komplexer Beschreibung bleibt eine weiche Klassengrenze möglich<br />
<br />
== Erzeugen der Cluster ==<br />
=== Radiusrestriktionsmethode ===<br />
* keine Startpartition erforderlich<br />
* indirekte Optimierung: Zielfunktion dient nur der Bewertung der fertigen Partition<br />
* Ablauf:<br />
*# Erstes Element initialisiert das erste Cluster<br />
*# Alle Elemente werden einem Cluster zugeordnert wenn der Abstand zum Clusterzentrum unterhalb eines bestimmten Wertes liegt<br />
*# Für alle Elemente die damit ausserhalb der Cluster liegen wird ein neuer Cluster angelegt<br />
*# Wichtig ist eine gute Radiusschätzung der Cluster (Varianz der Stichprobe durch Anzahl der gewünschten Cluster)<br />
*# als Gütefunktion nutzt man die Quadratische Abweichung von den Clusterzentren<br />
<br />
=== Minimaldistanzmethode ===<br />
# Ausgangspunkt ist eine nur die Radiusrestriktionsmethode erstellte Partition<br />
# Alle Klassen Mittelpunkte werden neu Berechnet<br />
# Berechnen einer neuen Minimaldistanzpartiton anhand einer gewählten Metrik<br />
# Ein Abbruchkriterium entscheidt über das weitere vorgehen<br />
#* Kriterium für Partition ist besser geworden → mache Weiter<br />
#* Anzahl der Interationschritte überschritten → Abbruch<br />
#* Anzahl der Interationschritte noch nicht überschritten && Kriterium für Partition ist gleich geblieben → mache weiter<br />
#* Kriterium für Partition ist schlechter geworden → breche ab<br />
<br />
=== k-Means-Austauschverfahren ===<br />
# Ausgangspunkt ist eine Startpartition<br />
# Merkmalsvektoren umgruppieren wenn die distanz zu einem anderen Klassenzentrum kleiner ist als zum aktuellen<br />
# Neu berechnen der Klassenmetriken<br />
# Abbruch wenn anzahl der Interartionsschritte überschritten ist oder keine Umgrupierung mehr erfolgt<br />
* Meist eingesetzt wird die Mahalanobis-Distanz → Hypereliptische Cluster die sich wunderbar eignen langgestreckte Verteilungen zu approximieren<br />
= Trennfunktionsklassifikatoren (Farbpixelklassifikation 30 -39) =<br />
* Bei gegen Null gehenden Verteilungsdichten trangen weit entfernte Regionen keine Aussagekraft mehr → daher ist es Angebracht eine Rückweisungsklasse einzuführen<br />
<br />
== Mahalanobis ==<br />
* Verwenden der Mahalanobis-Distanz zur Klassifikation<br />
* wenn die Hauptdiagonale der Kovarianzmatrix >> als die restlichen Matrixelemente<br />
** Vereinfachung des Distanzmaßen möglich zu einem achsenparallelen Elipsoiden<br />
* wenn Streuung der einzelnen Merkmale gering ist vereinfacht sich der Ellipsoid zu einer Kugel (euklidisches Abstandsmaß)<br />
* wenn Streuung in den Klassen etwa gleich Groß ist können die Klassenspezifischen Skalierungen entfallen<br />
<br />
== Hyperquader-Klassifikation ==<br />
* Zur Zuordnung sind nur noch Intervalltests notwendig<br />
* Sehr grobe approximation der Klasse da meist elliptische Datenverteilungen auftreten<br />
* Funktioniert gut bei dekorrelierten Merkmalen → achsenparallele Ellipsen<br />
* schnell und einfach<br />
* kann eingesetzt werden um die Überlappung von Klassen zu abzuschätzen<br />
<br />
== Decision-Tree-Klassifikator ==<br />
* Verwenden einfacher Schwellen zur Abgrenzung der Klassen<br />
* Klassenbeschreibungsräume werden durch meherere Grenzen beschrieben<br />
* Effiziente Beschreibung erfolgt mit Bäumen<br />
<br />
== Linear Klassifikator → Hyperebene ==<br />
<br />
== Support Vector Machines ==<br />
<br />
== k-Nächster-Nachbar-Klassifikator ===<br />
<br />
= Neuronale Klassifikatoren (Farbpixelklassifikation 40- 45) =<br />
= Segmentierung (Seg 1 - 8) =<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Grundlagen_der_Farbbildverarbeitung&diff=6996Grundlagen der Farbbildverarbeitung2009-03-17T13:10:26Z<p>DarkGhost: /* Hyperquader-Klassifikation */</p>
<hr />
<div>Link zum [http://www.zbs-ilmenau.de/intern/vip-toolkit/index.php Vip toolkit]<br />
= Einführung (GF_a 8 - 47) =<br />
<br />
== Geschichtliches zur Farbe ==<br />
<br />
=== Newton ===<br />
<br />
* 1672: New Theory about Light and Colours<br />
** Sonnenlicht = Mischung einzelner Farben<br />
** Spektralfarben sind objektive Eigenschaft des Lichtes<br />
<br />
[...]<br />
<br />
=== Goethe ===<br />
<br />
[...]<br />
<br />
== Begriff der Farbe ==<br />
<br />
* '''Farbe im engeren Sinn, stellt eine spezielle menschliche Sinneswahrnehmung dar'''<br />
* <math>\Phi_i = \int_{\Delta \lambda_i} \varphi_{\lambda} (\lambda) d \lambda</math><br />
* Leistungsdichte <math>\phi (\lambda)</math> stellt dagegen den Farbreiz dar, der die Farbempfindung hervorruft<br />
* Vektoren <math>\underline \Phi</math> sind je nach Dimension mehr oder minder genaue Approximationen des Farbreizes<br />
<br />
* Orientierung am menschlichen visuellen System und die Betrachtung psychologischer und physiologischer Grundlagen sind von Interesse:<br />
** zur richtigen Bewertung der Schwierigkeiten und Herausforderungen bei der Schaffung technischer Lösungen<br />
** zur Anpassung technischer Lösungen der Bildwiedergabe an das visuelle System<br />
** zur Nutzung optimaler Naturprinzipien für technische Lösungen<br />
** weil technische Systeme im allgemeinen auf dem inneren Modell des Menschen von der Welt beruhen und dieses Modell in hohem Maße durch den visuellen Kanal des Menschen beeinflusst ist<br />
** weil optoelektronische Sensoren, Bildverarbeitung und Bildanalyse wichtige Schnittstellen zwischen Mensch und Maschine darstellen<br />
**weil viele Objekteigenschaften durch visuelle Eindrücke beschrieben werden<br />
<br />
* menschliches Auge kann ca. 100 Graustufen / ca. 300 000 Farben unterscheiden<br />
<br />
* Drei grundsätzliche Anwendungen von Farbinformation:<br />
** Pseudokolorierung<br />
** Falschfarbendarstellung<br />
** Echtfarbdarstellung (True Color) <math>\rarr</math> hier Schwerpunkt<br />
<br />
== Farbtäuschung ==<br />
<br />
* Zuordnung zwischen Physik und Wahrnehmung nur eindeutig wenn bunte Dinge isoliert betrachtet werden<br />
* Werden bunte Objekte in bunte Umgebungen eingebettet/bewegt, dann können abweichende Farbwahrnehmungen auftreten, so genannte Farbtäuschungen<br />
* es existieren unterschiedliche Arten solcher Täuschungen:<br />
** ''Farbinduktion oder simultaner Farbkontrast'' (Farbe wird durch ihre Umgebung modifiziert)<br />
** ''Farbkonflikt'' (es konkurrieren verschiedene Sehinformationen miteinander)<br />
** ''Subjektive Farben'' (es werden bunte Farbtöne wahrgenommen, die nicht vorliegen)<br />
<br />
'''Simultaner Farbkontrast:'''<br />
* erstmals 1839 beschrieben<br />
* wo der Effekt entsteht (Auge, Cortex) ist unklar<br />
<br />
'''Farbinduktion:'''<br />
* bei kleinteiligen, sich wiederholenden Strukturen erfolgt Angleichung<br />
* kann zur Rauschunterdrückung oder zur Unterdrückung von Feintexturen zugunsten der Erkennung größerer Objekte wichtig sein<br />
<br />
'''Farbkonflikt:'''<br />
* Formen und Strukturen konkurrieren mit Farben ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf White'sche Illusion])<br />
<br />
'''Subjektive Farben:'''<br />
* durch Bewegung ist es möglich Farben zu erzeugen die ursprünglich nicht vorhanden waren ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf Drehwurm in Farbe])<br />
<br />
== Farbwahrnehmung beim Menschen ==<br />
<br />
[...]<br />
<br />
=== Rezeptive Wahrnehmung ===<br />
* 1807 stellte Young die Hypothese auf das Farbsehen auf drei Arten von Sinneszellen beruht (rout,grün,blau)<br />
* erst 1964 konnten dies bewiesen werden, durch die Messung der Absorptionsspektren<br />
*[[Datei:Pdt-kurven.svg]]<br />
<br />
=== Postrezeptive Wahrnehmung ===<br />
* Mit dem 3 Farbenmodell konnten einige psychologische Erscheinungen nicht erklärt werden<br />
** Es werden 4 Farben als besonderst "rein" empfunden (Rto, Geln,Grün, Blau)<br />
** Unbunte Farben werden werden als das fehlen von Farben wahrgenommen<br />
** Schwarz schein gleichberechtigt zu Weiß<br />
** keine wahrgenommene Farbe erscheint zugleich rötlich und grün<br />
* das führte zur Gegenfarbentheorie die anfangs nur Psychologisch begründet war 1958 aber physiologisch Nachgewiesen werden konnte<br />
** Rot - Grün<br />
** Gelb - Blau<br />
** Schwarz - Weiß<br />
* → CIELab-Farbraum<br />
<br />
=== Kortikale Kodierung ===<br />
* Weder die 3 Farbentheorie noch die Gegenfarbentheorie beschreiben die bewusste Wahrnehmung des Menschen<br />
* Deshalb erweitertes Modell<br />
** Farbton / Buntton beschreibt die als besonderst rein empfundenen Spektralfarben<br />
** Sättigung beschreibt wie stark eine Farbe verblasst ist<br />
** Helligkeit beschreibt, wie hell oder dunkel eine Farbe ist<br />
* Wo/Wie genau die neuronale Verarbeitung erfolgt, ist noch nicht sicher belegt<br />
<br />
== Die Ordnung in der Welt der Farben ==<br />
* Newton kannte die Wellenlänge noch nicht → er ordnete die Farben nach dem Regenbogen<br />
* Goethe verwendete das Gegenfarbenmodell<br />
* Munsell schlug 1905 ein Farbordnungssystem vor bei dem alle Abstände zwischen den Farben Empfindungsmäßig gleich sind<br />
** führt zu einem geometrisch nicht regelmäßigen Körper<br />
<br />
== Das Modell der Farbe ==<br />
* '''Definition'''<br />
** Farbe ist diejenige Gesichtsempfindung eines dem Auge strukturlos erscheinenden Teils eines Gesichtsfeldes durch die sich diser Teil bei einäugiger Betrachtung mit unbewegtem Auge von einem gleichzeitig gesehenen ebenfalls strukturlos angrenzendem Bezirk allein unterscheidet (unbunte Farben: Schwarz, Weiß und Graustufen, bunte Farben: Helligkeit; Buntheit setzt sich aus Buntton und Farbsättigung zusammen)<br />
** Farbe ist durch Helligkeit, Buntton, Sättigung eindeutig bestimmt → 3D Modell<br />
*** drei linear unabhängige Größen<br />
*** Additive Mischung zur Reproduktion von Farbe (aus Rot, Grün, Blau)<br />
*** drei linearunabhängige Größen spannen immer einen Raum auf → Rot,Grün und Blau werden die Achsen dieses Raumes<br />
<br />
=== Farbvalenz ===<br />
* Mit unserem Modell läßt sich jede Farbe als linearkombination unserer drei Basisvektoren aufschreiben<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
** <math> \vec F</math> ... Farbvalenz<br />
** <math> \vec r, \vec g, \vec b </math> ... die drei Basisvektoren die den Raum aufspannen (Rot, Grün und Blau)<br />
** <math> R,G,B, |\vec F| </math> ... die Farbwerte<br />
** <math> \vec r \cdot R, \vec g \cdot G, \vec b \cdot B </math> ... die drei Primärvalenzen<br />
* Ermittelt werden die Farbwerte mit Hilfe der Vergleichsmethode<br />
** Eine Person vergleicht ein Target mit einer Farbe die aus den drei Primärvalenzen gemischt wird<br />
** wenn die Empfindung der beiden Farben gleich ist, dann notieren wir die Werte<br />
* Innere Farbmischung<br />
** das Target wird mit weißen Licht beleuchtet und wir drehen nur an dem Farbmischgerät<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
* Äußere Farbmischung<br />
** Wir beleuchten das Target mit farbigen Lichte<br />
**<math> \vec F+ B \cdot \vec b = R \cdot \vec r + G \cdot \vec g \rightarrow \vec F = R \cdot \vec r + G \cdot \vec g - B \cdot \vec b</math><br />
<br />
=== Farbreizmetrik ===<br />
* Die Farbreizfunktion <math> \varphi_\lambda</math> beschreibt die spektrale Zusammensetzung der Farbempfindungen<br />
*# Selbstleuchtende Objekte<br />
*#* <math> S_\lambda (\lambda)</math> beschreibt die spektrale Verteilung der Quelle<br />
*#* Wahrnehmung: <math> \varphi_\lambda = S_\lambda</math><br />
*# Auflicht Vorlagen<br />
*#* <math>\beta_\lambda(\lambda)</math> beschreibt den spektralen Remisionsgrad der Vorlage<br />
*#* Wahrnehmung: Licht reflektiert von der Vorlage <math> \varphi_\lambda = S_\lambda \cdot \beta_\lambda</math><br />
*# Durchlichtvorlagen<br />
*#* <math>\tau_\lambda(\lambda)</math> spektraler Transmissionsgrad der Vorlage<br />
*#* Wahrnehmung von Licht welches die Vorlage durchdrungen hat <math>\varphi_\lambda= S_\lambda \cdot \tau_\lambda</math><br />
* Damit haben folgende Faktoren Auswirkung auf die Wahrgenommene Farbe<br />
*# Die Beleuchtung des Objektes (Spektrale Zusammensetzung des Lichtes der Lampe)<br />
*# Das Remmisionsverhalten der beleuchteten Oberfläche<br />
*# Die wellenlängenabhängige Empfindlichkeit der drei Zapfen des Auges<br />
* Es besteht die Möglichkeit die pdt Kurven direkt zur Beschreibung des Farbempfindens zu nutzen<br />
* Die Farbwerte könnte man dann wie folgt ermitteln: <math> \left(\begin{matrix}P\\D\\T\end{matrix}\right)=k\int_{380\mathit{nm}}^{780\mathit{nm}}\varphi (\lambda )\cdot \left(\begin{matrix}p(\lambda )\\d(\lambda )\\t(\lambda )\end{matrix}\right)d\lambda </math><br />
* Für die technische Darstellung von Farbe werden allerdings R,G,B werte benötigt<br />
* Die dafür notwendigen Spektralwertkurven können mit Hilfe der Vergleichsmethode ermittelt werden<br />
* Man erhält damit folgende Kurven<br />
[[Datei:SpektralwertfunktionenRGB.jpg]]<br />
* Mit der gleichen Formel wie bei der pdt Kurve lassen sich nun die R,G,B Werte rechnerisch ermitteln<br />
<br />
== Farbanalyse, Zusammenhang mit der Farbwidergabe ==<br />
* Das Kammera - Monitor System soll die Farbe exakt wiedergeben<br />
* Der Monitor verwendet EBU Phosphore für die Farbdarstellung<br />
** haben selbst Spektralwert kurven => keine Monochromatischen Lichter mehr<br />
* Die notwendigen spektralwertkurven die die Kamera realisieren muss um die Bilder auf dem Monitor exakt darzustellen lassen sich mit Hilfe der pdt Kurven herleiten (Über forderung der Gleicheit der Farben)<br />
* Sie besitzen stark negative Anteile => Auch die Filter der Kamera müssten negative Transsmissionsgrade besitzen<br />
** technisch ist das nicht möglich<br />
* es bleibt also nur die Möglichkeit die notwendigen Parameter zur Ansteuerung des Monitors aus positive one-peak Kurven zu berechnen<br />
<br />
== Subtraktive Farbmischung ==<br />
* Die Subtraktive Farbmischung lässt sich auf die Multiplikation der Transmissionsgrade zurückführen (ein Filter lässt 50% rotes licht durch, wenn man zwei dieser Filter hintereinander legt, dann geht nur noch 25% rotes Licht durch die Anordnung (0.5*0.5 = 0.25) )<br />
* wenn <math> \tau_0 </math> die Transmission eines Filters für die normierte Dicke 1 und die normiert Dichte 1 ist dann kann man<br />
** mit dem Lambertschen Absorbtionsgesetzt die Absortption von dickern/düneren Material berechnen <br> <math> \tau = [ \tau_0]^w </math><br />
*** w ... Dicke des Materials im Verhältnis zum norm Material<br />
** mit dem Beerschen Gesetz die Transmission von Meterial mit anderer Dichte berechnen <br><math> \tau = [ \tau_0]^c </math><br />
*** c... Das Verhältnis der neuen zur alten Dichte<br />
** kann man auch kombinieren zu (Lambert-Beersches Gesetz)<br />
** <math> \tau = [ \tau_0]^{c \cdot w} </math><br />
* Da sich die Transmission Multiplikativ zusammensetzt wird auch gerne mit dem logarithmus der Transmission gerechnet (optische Dichte)<br />
**<math> D = - lg \tau = lg \frac{1}{\tau}</math><br />
** Damit vereinfacht sich das Lambert-Beersche gesetz zu: <math> D = c \cdot w \cdot D_0</math><br />
* selbstverständlich sind die Transmission <math>\tau</math> und die optische Dichte D von der Wellenlänge abhänig ... zur Übersichtlichkeit wurde das in den Formeln nur weggelassen<br />
* Bei einem Papierbild kommt zu dem Filter noch die Reflexion an der Farboberfläche und an der Papieroberfläche<br />
** Beachte das Licht was an der erste Schicht wegreflektiert wird kann icht tiefer eindringen. Nur noch <math> (1-\beta)*S </math> dringt an Licht durch den ersten Filter!<br />
*** <math> \beta </math> ... Remmisionsgrad der ersten Farbe<br />
*** <math> S </math> ... Spektrale Verteilung der Lichtquelle<br />
<br />
= Farbmetrische Schnittstellen - Farbräume (GF a 49 - 55) =<br />
<br />
<pre><br />
Unterschiedliche bildgebende Systeme<br />
z.B. Farbkameras<br />
Farbscanner<br />
Spezialkameras<br />
</pre><br />
'''Widerspruch''' <math>\updownarrow</math> Farbmetrische Schnittstelle<br />
<pre><br />
Unterschiedliche Bildwiedergabesysteme<br />
"True-Color-Darstellung"<br />
- unterschiedliche Monitore, Beamer, Drucker etc.<br />
</pre><br />
<br />
== Leuchtdichte (Luminanz) ==<br />
<br />
* Luminanz Y ist die Strahlungsleistung, bewertet mit der spektralen Empfindlichkeitsfunktion des Auges für das Hellempfinden<br />
* Y ist Leistungsproportional, wenn Lichtzusammensetzung (Leistungsdichte <math>\Theta (\lambda))</math> konstant bleibt<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* Leuchtdichte berechnet sich nach dem ''Abneyschen Gesetz'':<br />
: <math> Y = L = k \cdot \underline L^T \cdot \underline F </math><br />
:* <math>\underline L^T - </math> Leuchtdichtebeiwert: gibt an wie groß der Beitrag jedes Farbwertes der Farbvalenz zum Helleindruck ist, abhängig vom gewählten Farbwiedergabesystem<br />
* Leuchtdichte L <math>\ne</math> Intensität I<br />
: <math> I = \frac 1 3 (R+G+B)</math><br />
<br />
* die perzeptuelle Antwort unseres Auges auf die Leuchtdichte wird Helligkeit (Lightness) genannt<br />
: <math><br />
L^{\star} = \begin{cases}<br />
116 \cdot \sqrt [3] {\frac Y {Y_n}} -16, & \text{wenn } \frac Y {Y_n} > 0{,}008856\\<br />
903{,}3 \cdot {\frac Y {Y_n}}, & \text{wenn } \frac Y {Y_n} \le 0{,}008856<br />
\end{cases}<br />
</math><br />
<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: Eine Quelle die nur 18% der Luminanz einer Referenz hat, erscheint uns immer noch halb so hell wie die Referenz </span><br />
<br />
== Gammakorrektur und Luma ==<br />
* '''Gammakorrektur:'''<br />
** Aufgrund der Ansteuerung von CRT Monitoren und der verwendeten Phosphore ergibt sich ungefähr eine quadratische Abhängigkeit der Luminanz vom Videosignal<br />
** Die Luminaz der drein einzelnen Farbkanäle muss den gleichen Verlauf aufweisen. Sie dürfen sich nur in ihren Maximalwerten unterscheiden!<br />
*** Sonst ist es nicht möglich die Helligkeit zu ändern und dabei die Farbe konstant zu halten<br />
** Die Gammakorrektur sorgt dafür das die Farbwiedergabe auf dem Monitor linear verläuft und nicht quadratisch<br />
*** Notwendig damit wir die gleich Wahrnehmung erzielen können als währe das Kamera-Monitor System nicht vorhanden<br />
<br />
*'''Luma:'''<br />
** Luma ist die gewichtete Summe der drei Gammakorregierten Farbwerte R',G',B'<br />
** Damit ist Luma nicht gleich Luminanz<br />
<br />
*'''Brightness'''<br />
** Brightness ist ein Begriff der beschreibt wie stark eine Fläche Licht emmitiert oder sie hell sie erscheint<br />
** Besitzt kein festes Maß und wird daher sehr frei verwendet -> HSL<br />
<br />
== Farbsysteme, Farbräume, reduzierte Farbräume ==<br />
* Die Intensität einer Farbe ist <math> I = \frac{R + G +B}{3} </math><br />
* Wählt man die Intensität konstant mit <math>I=\frac{1}{3}</math> so ergibt sich eine Ebene die den RGB-Farb Würfel Diagonal schneidet und durch die R,G,B Eckpunkte geht<br />
* Jede Farbkoordinate kann auf diese Ebene projeziert werden -> Ermöglicht die Nutzung dieser Ebene als einfache Farbtafel<br />
** Diese Ebene kann dann noch auf die 0RG- Fläche des RGB Würfels projeziert werden ohne das die Ordnung der Farben gestört werden würde -> Der Farbton einer Farbe lässt sich allein durch r und g beschreiben<br />
* in die rg-Ebene können nun alle in RGB - darstellbaren Farben und alles existierenden Farben eingetragen werden<br />
** Danach erkennt man das sich technisch mit dem RGB-System nur ein kleiner Teil der exisiterenden Farben realisieren lässt<br />
<br />
= Das Normvalenz- oder XYZ-System (GF a 76 - 86) =<br />
* Alle Farbwerte sollen durch positive Farbwerte darstellbar sein<br />
** Für Farbmessung von Interesse<br />
** Das XYZ- Dreieck muss den spektralen Kurvenzug voll umschließen<br />
* Eine weitere Forderung ist das die Leuchtdichte als unabhängige Komponete auftreten soll<br />
* Die Fläche des Dreiecks soll so klein wie möglich sein<br />
* Die dadurch berechnbaren Normalvalenzen sind physikalisch nicht erzeugbar -> Die Spektralwertkurven für das System müssen berechnet werden<br />
** Die Berechneten Spektralwertkurven sind stets nichtnegativ -> immer positive Transmissionsgrade und Sensorempfindlichkeiten<br />
[[Bild:NORMXYZ1.JPG]]<br />
* Mit dem XYZ-System kann man nun Farbdreiecke vergleichen und Bewerten<br />
** Abstände, Fehler und Systemeigenschaften sollten aber in einem empfindungsmäßig gleichabständigen Farbraum bewertet werden (u'v'w' und CIELab)<br />
* '''Optimalfarbkörper'''<br />
** Beschreibt die Grenze aller darstellbaren Körperfarben<br />
** Zur Erstellung schneidet man rechteckförmige Stückchen aus dem Spektrum von Idealweißem Licht aus<br />
<br />
== Das UVW-System ==<br />
* Informationsgehalt der Farbe für den Menschen hängt davon ab welche Farbunterschiede er wahrnehmen kann<br />
* Vor allem ist das interessant wenn Bildverarbeitungsprobleme auf der menschlichen Wahrnehmung formuliert sind<br />
* xy-Farbtafel hat starke Unterschiede zwischen örtlichen Abstenden und empfindungsmäßigen Abständen -> ungeeignet<br />
* erste Lösung<br />
** lineare Transformation<br />
** W' -> Helligkeit<br />
** U' -> Rot-Grün Bundheit<br />
** V' -> Gelb-Blau Bundheit<br />
** Ergebnis<br />
*** Wesentlich besseres Darstellung der Empfindung (Faktor 10 gegenüber dem XYZ-System)<br />
* verbesserte Lösung<br />
** verwenden einer nicht linearen Abbildung (Auge wird mit berücksichtigt)<br />
<br />
== L*a*b* oder CIELAB-Raum ==<br />
* Gegenfarbmodell<br />
* empfindungsmäßig gleichabständiger Raum<br />
* Grundsätzlich zur Angabe von Farbabweichungen verwendet<br />
** Geeignet zur Bewertung von Druckern, Monitoren und Abweichungen von Nachfärbungen<br />
* als Farbdifferenzmaß wird der euklidische Abstand benutzt (<1 nicht mehr Wahrnehmbar)<br />
<br />
== L*u*v* oder CIELUV ==<br />
* für additive Mischung vorgesehen<br />
* wie der CIELAB- Raum ein empfindungsmäßiger gleichabständiger Raum<br />
<br />
== YCbCr - Crominanzwertsystem ==<br />
* Entwickelt damit Farbfernsehen und S/W-Fernsehen Parallel betrieben werden konnten<br />
* Crominanzwerte<br />
** sind von Leuchtdichte befreite Werte<br />
** verschwinden für alle unbunten Farben<br />
** Cr= R-Y, Cg = G-Y, Cb = B-Y<br />
** Das System aus CrCbCg und Y ist überbestimmt => Es reicht die Übetragung von Cr , Cb und Y<br />
* Da das Auge auf Helligkeitsunterschiede empfindlicher reagiert als auf Farbunterschiede können die Crominanzwerte mit geringerer Auflösung übertragen werden<br />
<br />
== ΘSY - System ==<br />
* Der Bunttonwinkel Θ berechnet sich aus dem Verhältnis der Crominanzwerte Cb und Cr<br />
* Die Sättigung S ist der Betrag des Vektors CrCb<br />
<br />
== HSI - Farbraum ==<br />
* Intensität: <math> I= \frac{R+G+B}{3} </math><br />
* Sättigung: <math> S = 1 - 3 \cdot min (r,g,b) </math><br />
* Hue: <math> H= \left\{ \begin{matrix}\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B\le G \\ 2\pi -\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B>G \end{matrix}\right . </math><br />
* Raum ist nicht gleichmäßig gefüllt<br />
* bei kleinen Intensitäten I in Buntton und Sättigung Instabil<br />
* Es kann bei Farbmanipulationen dazu führen das es keine Entsprechungen im RGB gibt<br />
** Lösungen:<br />
*** Dachförmige Begrenzung des HSI Raums -> sehr Aufwendig<br />
*** Normieren der Intensitäten -> Bild kann ins dunkle verschoben werden<br />
*** Maximalwert setzen -> Falsche Farbwerte (werden ins unbunte verschoben)<br />
*** proportionales skalieren bis Farbe im RGB-Würfel liegt<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
<br />
== HSL - Farbraum ==<br />
* Gern für Computergrafik verwendet<br />
* einfache Beziehungen<br />
* Die Verwendeten Biegriffe H,S,L entsprechen nicht der Bedeutung in der Farblehre und Form des Raumes<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
* Buntton ist extrem instabil bei kleinen Sättigungen<br />
* Form des Raumes ist unpraktisch<br />
<br />
= Farbmessung (GF 1 - 11) =<br />
<br />
* Farbmessung = Ermittlung der drei zu einer Farbvalenz gehörigen Farbmaßzahlen<br />
* 3 Messmethoden: <br />
** Vergleichsmethode oder Gleichheitsverfahren<br />
** Spektralverfahren<br />
** Dreibereichsverfahren<br />
<br />
== Gleichheitsverfahren ==<br />
<br />
* Vergleiche:<br />
** Vorlage mit additivem Gemisch<br />
** Vorlage mit Farbmusterkarten (DIN-Karten)<br />
* unverzichtbar bei physiologischen Untersuchungen<br />
* aufwendig und bei kleinen Probandengruppen ungenau<br />
* d.h. für technische Messungen ohne Bedeutung<br />
<br />
'''Messbedingungen nach DIN:'''<br />
* helladaptiertes und blendfreies Sehen<br />
* unbunter Messraum<br />
* neutrale Gesichtsfeldumgebung mit gleicher oder etwas kleinerer Leuchtdichte als im Messfeld<br />
* gut ausgeruhtes und neutral gestimmtes Auge<br />
* farbnormalsichtiger Beobachter<br />
<br />
== Spektralverfahren ==<br />
<br />
* zu messende Farbvalenz = Summe spektraler Farbvalenzen<br />
* greift auf gemessene Normspektralwertkurven zurück<br />
<br />
# '''spektrale Messung zur Ermittlung der Farbreizfunktion <math>\varphi (\lambda) </math>'''<br />
#* Selbststrahler: direkte Messung der Strahlungsfunktion <math>\rightarrow \varphi (\lambda)= S (\lambda)</math><br />
#* remittierende Vorlage: Remissionsfunktion der Vorlage messen, d.h. Strahlungsfunktion S ist vorher zu bestimmen und aus <math>\varphi (\lambda)</math> heraus zu rechnen <math>\rightarrow \varphi (\lambda)= \beta (\lambda) \cdot S (\lambda)</math><br />
# '''farbvalenzmetrische Auswertung'''<br />
#* wenn <math>\beta (\lambda)</math> ermittelt wurde, kann jede beliebige (tabellierte) Lichtquelle <math>S^{\ast} (\lambda)</math>eingesetzt werden<br />
#: <math><br />
\begin{bmatrix}<br />
X\\Y\\Z<br />
\end{bmatrix}<br />
= k \cdot<br />
\begin{bmatrix}<br />
\int \bar{x} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{y} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{z} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda<br />
\end{bmatrix}<br />
</math><br />
#* Normierungskonstante k:<br />
#** Selbststrahler: nur Farbwertanteile gefragt, d.h. k ist beliebig<br />
#** Körperfarben: Y für mattweißen Körper = 100, d.h. <math>k=\frac{100}{\int {S(\lambda) \cdot \bar{y}(\lambda) d \lambda}}</math><br />
<br />
'''Messgeometrien:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bildergalerie (45°,8°,Transmission) </span><br />
<br />
* ''45°-Geometrie'': Beleuchtung unter 45° schließt Glanzeinfluss aus <math>\rightarrow</math> Sensor blickt senkrecht auf Probe<br />
* ''8°-Geometrie'': Beleuchtung diffus über Ulbricht-Kugel <math>\rightarrow</math> Sensor blickt unter 8° auf Probe; Messung mit/ohne Glanz möglich<br />
* ''Transmissionsgeometrie'': Probe wird durchleuchtet<br />
<br />
== Dreibereichsverfahren ==<br />
* die drei Farbwerte werden direkt photometrisch gemessen<br />
* Filter und spektrale Empfindlichkeite der Strahlungsempfänger müssen an die spektrale Bewertungsfunktion angepasst sein<br />
* '''Luther-Bedingung:''' <math> \tau_x(\lambda) = \frac{c_x \cdot x(\lambda)}{s_1(\lambda)}</math><br />
** <math> \tau_x(\lambda) </math> ... Filtertransmission<br />
** <math>s_1(\lambda)</math> ... Sensorempfindlichkeit (hier im ersten Kanal)<br />
** <math>c_x</math> ... Gerätekonstante<br />
** Für den Y und Z Kanal ist die Formel analog<br />
* Der notwendige Filter kann gut durch ein Set von Schmalbandigen Filtern realisiert werden<br />
<br />
== Spektralmaskenverfahren ==<br />
<br />
* spezielles Dreibereichsverfahren<br />
* Lichtzerlegung erfolgt mit einem Prisma<br />
* Das zerlegte Lich beleuchtet eine Maske (Papier, Plaste, Metal .... ne richtige echte Maske)<br />
* Messen der spektralen Verteilung (CCD-Zeile)<br />
* Ähnlich dem Spektralverfahren nur das das spektrum bereits im analogen entsprechend gewichtet wird<br />
<br />
== Metamerie ==<br />
* zwei Farbproben die bei einer bestimmten Beleuchtung gleich aussehen können bei einer anderen Beleuchtung ganz anderst aussehen<br />
* Der Metermarie-Index beschreibt diesen durch Beleuchtungswechsel entstehenden Farbwechsel<br />
* KEIN Maß für die Farbkonstantheit sondern für den Unterschied von zwei Proben<br />
* Berechnung erfolgt im L*a*b* Raum <br> <math> M_T = \sqrt {(L_{1T}-L_{2T}+L_{2B}-L_{1B})^2 +(a_{1T}-a_{2T}+a_{2B}-a_{1B})^2+(b_{1T}-b_{2T}+b_{2B}-b_{1B})^2 } </math><br />
** T ... Testlicht<br />
** B ... Bezugslicht<br />
** 1,2 ... Probennummern<br />
<br />
= Klassifikation von Messaufgaben (GF 82 - 86) =<br />
<br />
# Messung von objektiven Eigenschaften, die sich in der Veränderung spektraler Charakteristika niederschlagen<br />
#* vordergründig ist Zusammenhang zwischen Veränderungen in den physikalischen Eigenschaften von Interesse (z.B. Waferinspektion)<br />
#* Zusammenhang sollte eindeutig und von hinreichender Empfindlichkeit sein<br />
#* Wahrnehmung unterschiedlicher Farben eher Nebeneffekt<br />
# Überwachung der Stabilität von farblichen Erscheinungen<br />
#* ist bei einer oder mehreren Beleuchtungen zu überwachen<br />
#* absolute Farbmessung nicht nötig; "Anlernen" auf Farben genügt<br />
#* Abstände im Farbempfinden müssen sich in gleicher Weise in Veränderungen der Sensorsignale wiederspiegeln<br />
# absolute Farbmessung<br />
#* d.h. Ermittlung der korrekten Farbvalenz unter beliebigen Messbedingungen<br />
#* Spektralwertkurven müssen realisiert werden<br />
# Messung des spektralen Remissions- und/oder Transmissionsverhaltens von Materialien<br />
#* ausschließlich spektrale Messverfahren<br />
#* Messung der Strahlungsfunktion und der remittierten Leistungsdichte<br />
#* Berechnung der Farbvalenz bei beliebiger Beleuchtung und des Metamerie-Index<br />
<br />
'''steigende Ansprüche mit steigender Nummerierung'''<br />
<br />
= Einfache Farbkalibrierung (GF 16 - 41) =<br />
* Farben sollen möglichst exakt Wiedergegeben werden<br />
<br />
== Ausgleich von Beleuchtungseinflüssen ==<br />
* Körperfarben werden durch ihre Remmision bestimmt <math> \beta </math><br />
* Bei unterschiedlicher Beleuchtung sehen Farben unterschiedlich aus aber das Auge kann sich an die Beleuchtung adaptieren<br />
** Funktioniert bei Fotos aber nicht -> Beleuchtungsausgleich ist wichtig<br />
** Bei Farbvergleich noch viel mehr<br />
** Wird realisiert durch Weißabgleich (auf integraler Farbebene nicht möglich )<br />
* Direkte Vermessung der spektralen Eingenschaften der Kamera nicht möglich (Da Werte in Kamera bereits verrechnet werden um z.B. die negativen Anteile der Spektralkurven zu realisieren)<br />
** sehr Aufwendig (Kamera auseinanderbasteln um an die echten werte zu kommen + das durchgehen durch das Spektrum in kleinen Schritten)<br />
* Daher Verwendung von Testfarben<br />
** Führt auf Lösung eines linearen Gleichungssystem<br />
** Für menschliches empfinden -> Optimieren im CIELAB-Raum<br />
* Vorsicht bei nichtlinearen Funktionen zur Farbkalibrierung -> Kann bei zu wenig Testfarben zu total falschen Ergebnissen führen !!<br />
<br />
= Color Management (F CM 1 - 20) =<br />
* verschiedene Geräte können verschiedenen Farben darstellen<br />
* verschiedene Geräte verwenden andere Grundfarben zum mischen<br />
* Mit Hilfe von Profilen (Tabellierung der Farbwerteumrechnungen) wird eine Konvertierung der Farben vom Geräteraum in den CIELab Raum bzw umgekehrt durchgeführt<br />
* in den Profilen wird auch vermerkt welche Farben darstellbar sind und welche nicht<br />
* Somit kann man eine "Druckvorschau" auch auf einem Monitor erreichen (natürlich nur für Farben die auf beiden Geräten dargestellt werden können)<br />
** Jedes Mapping der Farben (Gamut-Mapping stellt somit einen Kompromiss dar)<br />
**# Perceptual (Die Farbbeziehungen untereinander werden erhalten) Komprimierung des Gamuts bis er in den zur Darstellung verwendeten passt<br />
**# Colometrisch -> Exakte Reproduktion aller in beiden Gamuts darstellbaren Farben<br />
**## relativ -> weiß wird auf weiß abgebildet und alle anderen Farben relativ dazu<br />
**## absoult farbmetrisch<br />
**# Saturation, alle Farben außerhalb des Zielgamuts werden zugunsten der Sättiung verändert<br />
* Kalibrierung -> Versetzen des Gerätes in einen definierten, reproduzierbaren Zustand<br />
* Charakterisierung -> Modellierung eines Gerätes welches sich ein einem stabilen definierten Zustand befindet<br />
<br />
= Kameras (GF_Ka 1 - 12) =<br />
<br />
'''Einsatzfelder:'''<br />
* ortsaufgelöste Messung von Farbe<br />
* Aufnahme und Wiedergabe von True-Color Bildern<br />
* Aufnahme farbiger oder mehrkanaliger Bilder für die Verarbeitung/Analyse (Qualitätssicherung)<br />
* Photogrammetrische Anwendungen (Lösung des Korrespondenzproblems)<br />
* Radiometrische Anwendungen (Messen im Spektralbereich)<br />
<br />
'''Dreibereichsmessung:'''<br />
* setzt die Trennung von drei sich überlappenden Spektralbereichen voraus, die dann wellenlängenabhängig zu bewerten und zu integrieren sind<br />
<br />
== Dreichip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* optische Kanaltrennung und Bewertung<br />
* beste Bildqualität, da hohe Auflösung in allen drei Kanälen<br />
* keinen örtlichen Versatz der Pixel in den drei Farbauszügen<br />
* Filter einfacher und präziser zu realisieren<br />
* befinden sich z.B. als dichroitische Spiegel auf den Strahteilerprismen<br />
<br />
<span style="color:#ee0000;"> \\ Hot-Mirror-, Cold-Mirror-Korrektur????</span><br />
<br />
== Einchip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: doppelte Anzahl grüner Pixel wegen Schärfe, MTF des Auges </span><br />
<br />
* örtliche Kanaltrennung und Bewertung<br />
* Streifen- oder Mosaikfilterstrukturen auf den einzelnen Pixeln zur örtlichen Signaltrennung<br />
* 3 oder 4 unterschiedliche spektrale Auszuüge zur Erzeugung der Farbinformation<br />
* Matrix selbst kann Interline- oder Frame-Transfer-Matrix sein<br />
* kostengünstiger und kleiner als Dreichip-Kameras<br />
* Probleme:<br />
** Farbvalenzen aus örtlich versetzten Auszügen (z.B. Farbsäume an Kanten)<br />
** nicht korrigierbare Fehler aus Nichtlinearitäten und Dunkelsignalen bei der Bildung von Mischsignalen<br />
<br />
'''generelle Anforderungen an die Signalverarbeitung:'''<br />
<br />
* primäre Kamerasignale stellen keine farbmetrische Schnittstelle zur Verfügung, d.h. alle Bewertungsfunktionen sind nicht-negativ (Spektralwertkurven fordern aber negative Wichtungen)<br />
* je nach realisierten Filtern und Genauigkeitsansprüchen <math>\rightarrow</math> lineare Matrizierung (meist Kameraintern) oder komplexere Approximation<br />
* bei hohen Genauigkeitsansprüchen <math>\rightarrow</math> Umgehung der Kamerainternen Matrizierung, weil Verstärkungsfaktoren, Toleranzen, Temperaturdrift, Langzeitstabilität etc. nicht bekannt sind<br />
* insgesamt geringe Nichtlinearitäten der CCD's können in den Ansteuerbereichen der einzelnen Kanäle zu wesentlichen Fehlern führen:<br />
** Farbvalenz ändert sich kontinuirlich mit der Shutterzeit<br />
** Pixelweise DSNU- (Dunkelsignalungleichförmigkeit) und PRNU- (Hellsignalungleichförmigkeit) Korrektur vor Erzeugung der Farbvalenz erforderlich, da sich Festmusterrauschen nicht nur auf Intensität sondern auch auf Farbart auswirkt<br />
** Dunkelsignal verdoppelt sich alle 7K, Gleichanteil wird aber geklemmt<br />
** Lichtquellentyp und Langzeitverhalten wirken sich nicht nur Intensität sondern auch auf Farbtemperatur aus<br />
<br />
'''4 spektrale Bereiche:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* vorteilhaft zur Erzeugung von Farbdifferenzsignalen für die TV-Kompatibilität<br />
* im Field-Integration-Mode werden Mischsignale gebildet, die die erforderliche Signalkorrektur für hohe Ansprüche behindern<br />
* Nichtlinearität der Ausgangsverstärker wirkt sich auf Korrektur der primären Mischsignale aus<br />
<br />
== Sequentielle Einchip-Kamera ==<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* zeitliche Kanaltrennung und Bewertung<br />
* relativ genaue Approximation der Spektralwertkurven möglich<br />
<br />
== Elektrisch steuerbare Filter ==<br />
<br />
* über die Wellenlängenabhängigkeit der Eindringtiefe der Photonen und die Steuerbarkeit der Tiefe der Potentialmulden der sensoren lassen sich steuerbare spektrale Empfindlichkeiten erzeugen<br />
<br />
= Verarbeitung von Farbbildern (1 - 31) =<br />
* Das unabhängige verarbeiten der Farbkanäle eines Farbbildes führt zu Nebeneffekten wie Farbsäume<br />
* Die höhere Vielfalt des mehrdimensionalen Raumes von Farbbildern kann Vorteilhaft genutzt werden für Pixelklassifikation, Segmentierung <br />
* Abstände, Mittlere Werte und örtliche Veränderungen sind in empfindungsmäßig gleichabständigen Räumen zu definieren und zu bewerden<br />
<br />
== Histogramme und Statistiken für Farbbilder ==<br />
* Farbbilder liefern dreidimensionale Häufigkeitsverteilungen im Farbraum → können als Approximation der entsprechenden 3D-Dichten verwendet werden<br />
* statistische Zusammenhänge zwischen den Kanälen werden in mehrdimensionalen Dichten betrachtet<br />
** Für Handauswertung meist nur 2D-Dichten, wegen der Übersicht<br />
** Für maschinelle Auswertung können diese dichten auch dreidimensional werden<br />
** für die parametrische Darstellung der Cluster werden meist multivariante Gaußverteilungen eingesetzt<br />
*** Einr Gaußverteilung ist für die Beschreibung eines Bildes mit mehreren Objekten nicht geeignet<br />
*** Die Kovarianzmatrix einer solchen "Approximation" kann aber gut zur Einschätzung der Streuung und der Mittelwerte in dem Bild eingesetzt werden<br />
<br />
=== Histogramm - Modifikationen ===<br />
* Contrast Streching, Polygonal Image Scaling, Histogram-Equalisation Siehe [[Grundlagen der Bildverarbeitung und Mustererkennung#homogene Punktoperationen|Grundlagen der Bildverarbeitung]]<br />
* Manipulation kann in verschiedenen Farbräumen ausgeführt werden (RGB,HSI,...)<br />
** In nicht empfindungsmäßig gleichabständigen Räumen muss die Transformation nicht unbedingt zum Ziel führen<br />
==== Manipulation im Farbraum RGB ====<br />
* ist der Farbraum in dem die Daten häufig vorliegen<br />
* Wirkung kann auf Grund der starken korrelation der RGB Werte bei geringen Sättigungen ausbleiben<br />
* Farbverfälschung wenn einzelne Kompontenen unabhänig von einander behandelt werden<br />
* hohes apriori-Wissen notwendig<br />
* wenn Falschfarbdarstellung gewünscht ist kann dies das mittel der Wahl sein<br />
<br />
==== Manipulationen im Farbraum HSI ====<br />
* unproblematisch in Bezug auf Farbverfälschungen<br />
* Zielsetzungen können sich einfacher beschreiben lassen (ähnelt der Beschreibung von Farbe durch den Menschen)<br />
* unabhängige Komponente (Intensität)<br />
* Kontrastverbesserung durch Sättigungsausgleich ohne Farbveränderung möglich<br />
* Stabilitätsprobleme nahe den unbunten Farben<br />
# '''Ausgleich des Intensitätshistogramms'''<br />
#* Werte möglich die keine entsprechung mehr im RGB haben → müssen geeignet herruntergerechnet werden<br />
#* bei kleinen Intensitäten sind die Bunttöne instabil → ausschließen von Veränderungen<br />
# '''Sättigungsausgleich'''<br />
#* Modifikation der Sättigung unter Beibehaltung des Bunttones<br />
#* Bei kleinen Sättigungen und kleinen Intensitäten ist der Buntton instabil → Ausschließen<br />
#* Histogramm über alle Bunttöne ist häufig verschmiert → besser Histogramm über Buntton Segmente<br />
# '''Bunttonausgleich'''<br />
#* Ziel sind Farbfalschbilder um Objekte besser unterscheiden zu können<br />
#* bei zu großen Buntton Änderungen wird die Interpretierbarkeit nur bei homogenen Flächen verbessert, meist wird sie eher verschlechtert<br />
#* Unsicherheit des Bunttons → bei geringen Sättigungen und Intensitäten ist der Buntton auszuschließen<br />
<br />
== segmentgesteuerte Farbvalenztransformationen ==<br />
* Globale Statistiken werden häufig durch nicht interressante Objekte dominiert<br />
* Ausweg ist das Betrachten von Ausschnitten und anwenden der Transformationen auf die Ausschnitte<br />
* erfordert zu erst das Segmentieren des Bildes<br />
<br />
= Referenzfreie Farbadaption auf Basis des 3D-Histogramms (HuS 32 - 39 ) =<br />
* unter bestimmten umständen kann auf eine Kalibrierung der Kamera mittels Referenzfarben verzichtet werden<br />
* Zur Korrektur soll die parametrische Approximation der 3D-Histogramme durch multivariante Gaußverteilungen genutzt werden<br />
== Vorraussetzungen für die Anwendbarkeit ==<br />
* Strukturierte Szene mit mehreren ntürlichen Objekten, die gleichmäßig über den Bunttonwinkel verteilt sind und durchschnittlichen Sättigungsgrad aufweisen<br />
* Langgestreckter SW-Prozess im Vergleich zum Rot-Grün und Blau-Gelb Prozess<br />
<br />
== Vorgehensweise ==<br />
* Korregieren von "vermutlichen" Abweichungen des Bildes in der Unbuntheitsachse<br />
* Dazu Ermitteln der Hauptachsen mit PCA<br />
* Drehen der Hauptachse in den SW-Prozess<br />
* Rücktransformation und Darstellung<br />
<br />
= Histogrammbasiertes Farbmatching(1 - 15) =<br />
* Histogramme sind im 2D Bild invariant gegenüber Rotation, Translation und Maßstab (wenn die Angaben relativ erfolgen !)<br />
* Histogramme sind auch relativ stabil gegenüber moderaten Verdeckungen und 3D-Rotation<br />
* Grobe Quantisierung der Histogramme um Fehlertoleranz zu erhöhen<br />
* Damit können Histogramme zur Objekterkennung eingesetzt werden → Bezeichnet als Color Indexing<br />
<br />
== uniformes Binning ==<br />
* einteilen der Farben in ein gleichverteiltes Histogramm<br />
* Suche in einem Bild den Ausschnitt welcher eine minimale Distanz zum Referenzbild hat<br />
* Als Abstandsmaß verwendet werden die Histogramme genutzt<br />
** Summe der Quadratischen Differenzen (Histogramme als Vektoren betrachtet und dann den euklidischen Abstand berechnet ohne Wurzel)<br />
** Earth Movers Distance (Berechnen was sich wohinverteilt haben könnte ... erfordert die Lösung des Transportproblems)<br />
* einfach aber die Bins ändern sich Sprunghaft, vor allem dann wenn Farben knapp an den willkürlichen Bingrenzen liegen<br />
<br />
== Unscharfe Chroma-Orts-Histogramme ==<br />
* Nachteile des uniformen Binning sollen überwunden werden<br />
* Alle Pixel bekommen eine unscharfe Klassenzugehörigkeit (Binnzugehörigkeit) je nach Abstand zum entsprechenden Binnmittelpunkt (wie bei [[Softcomputing|Fuzzy-C-Means]])<br />
** Ein Parameter ermöglicht dabei die Verunschärfung einzustellen (von total unscharf bis zum festen Binning)<br />
* Auch der absolute Ort der Segmente (aus denen die Histogramme erstellt werden) soll mit verwendet werden<br />
** Dazu wird das Bild in entsprechende Bereiche geteilt (8x8,16x16,...)<br />
** Alle Blöcke werden durchnnummeriert<br />
** Auch hier kommt es zu harten Umbrüchen wenn Pixel knapp an den Grenzen liegen → auch hier verunschärfen<br />
** Welche Indizees haben die Nachbarn? (Nachbarschaft in den Indizees der Blöcke heißt nicht gleich 2D-Nachbarschaft)<br />
<br />
== Cluster mittels Graphenansatz ==<br />
* Ziel ist es:<br />
** Sprunghafte Änderung der Binns zu verhindern<br />
** wenige Merkmale zu verwenden<br />
** Eng beieinander liegende Maxima trotzdem unterscheiden zu können<br />
* Verwendete Bilddaten:<br />
** Farbwinkelhistogramm, wenn Sättigung der Farben ausreichend ist<br />
** Intensitätsdiagramm, wenn Sättigung der Farben zu gering wird<br />
* Vorgehen:<br />
** Jeder Wert im Histogramm zeigt auf den Größten in seiner Nachbarschaft<br />
** Das Maximum zeigt auf sich selbst → Wird Merkmal<br />
** Weiteres Merkmal ist die Fläche die zum Maximum gehört (Nachbarn die direkt bzw. indirekt auf das entsprechende Maximum zeigen)<br />
* Match:<br />
** Finde ein Tupelpaar (Maxima in Referenzhistogram und Suchhistogram mit dem geringsten Abstand)<br />
** Ziehe gemeinsame Fläche von jedem Tupel des Paares ab<br />
** summiere gemeinsame Fläche (?)<br />
** Wiederhole bis sich keine Tupelpaare mehr bilden lassen<br />
** beziehe die laufende Summe auf das Maximum der Summe der ursprünglichen Flächen<br />
<br />
= Störunterdrückung (SU 1 - 16) =<br />
* Für nachfolgende Verarbeitungsschritte ist die Störunterdrückung sehr wichtig<br />
* Verschiedene verfahren der Rauschunterdrückung sind in [[Grundlagen der Bildverarbeitung und Mustererkennung#Lokale Operatoren zur Bildverbesserung (LOa 1 - 44) |BV]] eingeführt worden<br />
<br />
== Störunterdrückung durch Faltungsfilter ==<br />
* Anwendung wird einfach vektoriell durchgeführt (als würde man drei unabhängige Bilder gleichzeitig Filtern wollen)<br />
* es entstehen neue Farbtöne an den Übergängen zwischen Farben<br />
* im HSI Farbraum ist eine getrennte Betrachtung der Farbe und der Sättigung/Intensität möglich<br />
* Buntton ist zyklisch → muss bei der Mittelung beachtet werden<br />
* in der Farbe kann stärker gemittelt werden als in der Helligkeit (Auge nimmt Farbveränderungen schlechter wahr)<br />
* Komplexe Zahlen bieten sich hier als Rechenmittel an<br />
<br />
== adaptive gewichtete Mittelung ==<br />
* detailerhaltende Fähigkeiten von Filtern wegen der Farbsäume besonders von Interesse<br />
* Abstände verkomplizieren sich im Vergleich zu Grauwertbildern (Vektorabstandsmaße, Winkeldifferenzen,...) <br />
* Vorgehen nach dem Berechnen des Abstandes dann wieder Analog zur Grauwertfilterung<br />
<br />
== Medianfilterung ==<br />
* Problem bei der Übertragung des Rangordnungsgedankens auf Vektoren<br />
** Komponentenweises Vorgehen ist nicht geeignet (absolute Farbverfälschungen möglich)<br />
** Suche des besten Vertreters des SETS (wenn der verwendete Media im SET ist werden keine zu falschen Farben gewählt/gesetzt)<br />
*** kleinste Abstandssumme zu allen anderen Pixeln<br />
<br />
== Kombination von Averaging und Medianfilterung ==<br />
* Medianfilter ist gut für Impulsrauschen, schlecht bei Gauß hier ist Average gut<br />
* Bei den Filtern gibt es keinen unterschied zu den Grauwertbildern (unterschied besteht nur in der Realisierung der verwendeten Media/Average Filter nicht in ihrere Kombination)<br />
<br />
== Vektor-Richtungs-Filter ==<br />
* '''Basic Vecotr Directional Filter'''<br />
** Winkel zwischen Farbvalenzen als Distanzmaß<br />
** Ergebnis ist die Farbvalenz mit der kleinsten Winkeldifferenzsumme zu allen Valenzen des Fensters<br />
** Achromatische Rauschkomponenten werden nicht beseitigt<br />
* '''Generalized Vector Directional Filter '''<br />
** Suche nach den besten Vektoren aus Sicht der Richtung<br />
** Medianfilterung der Beträge der Vektoren<br />
* '''Directional Distance Filter'''<br />
** Vermeiden der Ineffizenz des GVDF Filters durch ein gemischtes Distanzmaß (Betrag und Winkel gleichzeitig)<br />
<br />
= Kantendetektion in Farbbildern (1 - 21) =<br />
* Wichtig für Segmentierung, Bildanalyse und Bildverstehen<br />
* [[Grundlagen der Bildverarbeitung und Mustererkennung#Kantendetektion (LK 1 - 38)| Kantenfilter]] bereits aus BV bekannt<br />
# '''Vektrogradient'''<br />
#* Berechnen der Jacobi-Matrix<br />
#* Wurzel aus dem größten Eigenwert ist der Vektorgradient<br />
#* Extrem Rechenaufwendig<br />
# '''Mittelwert der Richtungsableitungen'''<br />
#* Entspricht dem Gradienten im Intensitätsbild<br />
#* Zwei engegengesetzte Gradienten in unterschiedlichen Farben können sich gegenseitig aufheben → der Gradient der dritten Farbe dominiert egal wie klein er ist<br />
# '''Maximaler Gradient'''<br />
#* Suche nach dem Gradienten mit dem größten Betrag<br />
#* Korrelation der einzelnen Gradienten ist nicht von Bedeutung<br />
<br />
= Farbpixelklassifikation (Farbpixelklassifikation 1 - 21) =<br />
* Die Farbvalenzen bilden die Merkmale der Pixel<br />
* Anzustrebende Eigenschaften<br />
** Gute Beschreibung der Klassencluster und gute Trenneigenschaften<br />
** Einfache Belehrbarkeit (Aus Beispielen oder Expertenwissen)<br />
** Echtzeitfähigkeit<br />
** möglichst frühe Stufe der Verarbeitungskette ("Anspruchslosigkeit an das Bild")<br />
** Nutzen von Klassenzugehörigkeitsmaßen<br />
<br />
== optimaler Klassifikator ==<br />
* basiert auf dem Bayes-Theorem<br />
* findet die optimale Klassenentscheidung<br />
* Jeder Datenpunkt wird in die Klasse eingeordnet zur der er am Wahrscheinlichsten gehöhrt und bei der er die kleinsten Kosten für die anderen Klassen verursacht<br />
** Benötigt eine Risikofunktion die Angibt wie groß die Kosten bei Fehlklassifikation zwischen zwei Klassen sind<br />
*** Meist unbekannt und deswegen wird davon ausgegangen das die Kosten für jede Fehlklassifizierung gleich sind<br />
*** Kosten können durchaus auch bei richtiger Klassifikation definiert werden<br />
** Benötigt die Wahrscheinlichkeitsverteilung der Klassen im Raum (Meist unbekannt → Problem)<br />
*** können beliebig sein werden aber meist durch Gaußfunktionen approximiert<br />
*** in der Lernphase werden die Parameter dieser Verteilung geschätzt<br />
* Da Wahrscheinlichkeitsverteilung meist unbekannt ist, wird der Klassifikator ehr genutzt um einen anderen Klassifikator zu bewerten, wenn man eine bestimmt Wahrscheinlichkeitsverteilung festlegt (wie optimal ist der andere Klassifiaktor)<br />
<br />
== Maximum-Likliehood-Klassifikator ==<br />
* im Ansatz wie optimaler Klassifikator<br />
* setzten der Risikofunktion für alle Fehlklassifikationen auf einen konstanten Wert<br />
* verwenden von multivarianten Gaußdichten zur Beschreibung der Klassen<br />
* Entscheidung wird nur noch nach der a posteriori Wahrscheinlichkeit und der Klassen Verteilung gefällt<br />
<br />
== Malanobis-Abstandsklassifiaktor ==<br />
* schränkt den optimalen Klassifikator noch weiter ein im vergleich zum MLK Klassifikator<br />
* Kostenfunktion für Fehlklassifikation ist konstant für alle Fehlklassifikationen<br />
* Die a posteriorie Wahrscheinlichkeit für das auftreten der Klassen sein für alle Klassen gleich<br />
* Die Kovarianzmatrizen der Gaußverteilung der Klassen sind ähnlich<br />
* Damit ist die zuordnung zu den Klassen nur noch vom Abstand zu den Klassenzentren bestimmt<br />
** Abstandsmaß ist die Mahalanobis-Distanz<br />
<br />
== Gaußklassifikator und Kernel-Densitiy-Klassifikator ==<br />
* schränken noch weiter ein<br />
# '''Gaußklassifikator'''<br />
#* keine Kovarianzen mehr in der klassen Verteilung → Kugelförmige Klassenverteilungen<br />
# '''Kernel-Density-Klassifikator'''<br />
#* Spezialfall von Gauß-Mischverteilungen<br />
#* [... was genau der Macht frage ich in der Konsultation mal nach ... im Skript steht nix brauchbares]<br />
<br />
== LUT-Klassifikator ==<br />
* direktes Verwenden der Stichprobenhistogramme<br />
* erforder Closing im Merkmalsraum da nicht alles durch die Stichproben abgedeckt werden wird<br />
<br />
= Clusterverfahren (Farbpixelklassifikation 19 - 29) =<br />
* Ziel ist es komplexe Klassenbeschreibungen durch mehrere parametrische Einzelcluster zu approximieren<br />
* Beliebig komplexe Klassenformen lassen sich so Speichereffizient beschreiben<br />
* trotz Komplexer Beschreibung bleibt eine weiche Klassengrenze möglich<br />
<br />
== Erzeugen der Cluster ==<br />
=== Radiusrestriktionsmethode ===<br />
* keine Startpartition erforderlich<br />
* indirekte Optimierung: Zielfunktion dient nur der Bewertung der fertigen Partition<br />
* Ablauf:<br />
*# Erstes Element initialisiert das erste Cluster<br />
*# Alle Elemente werden einem Cluster zugeordnert wenn der Abstand zum Clusterzentrum unterhalb eines bestimmten Wertes liegt<br />
*# Für alle Elemente die damit ausserhalb der Cluster liegen wird ein neuer Cluster angelegt<br />
*# Wichtig ist eine gute Radiusschätzung der Cluster (Varianz der Stichprobe durch Anzahl der gewünschten Cluster)<br />
*# als Gütefunktion nutzt man die Quadratische Abweichung von den Clusterzentren<br />
<br />
=== Minimaldistanzmethode ===<br />
# Ausgangspunkt ist eine nur die Radiusrestriktionsmethode erstellte Partition<br />
# Alle Klassen Mittelpunkte werden neu Berechnet<br />
# Berechnen einer neuen Minimaldistanzpartiton anhand einer gewählten Metrik<br />
# Ein Abbruchkriterium entscheidt über das weitere vorgehen<br />
#* Kriterium für Partition ist besser geworden → mache Weiter<br />
#* Anzahl der Interationschritte überschritten → Abbruch<br />
#* Anzahl der Interationschritte noch nicht überschritten && Kriterium für Partition ist gleich geblieben → mache weiter<br />
#* Kriterium für Partition ist schlechter geworden → breche ab<br />
<br />
=== k-Means-Austauschverfahren ===<br />
# Ausgangspunkt ist eine Startpartition<br />
# Merkmalsvektoren umgruppieren wenn die distanz zu einem anderen Klassenzentrum kleiner ist als zum aktuellen<br />
# Neu berechnen der Klassenmetriken<br />
# Abbruch wenn anzahl der Interartionsschritte überschritten ist oder keine Umgrupierung mehr erfolgt<br />
* Meist eingesetzt wird die Mahalanobis-Distanz → Hypereliptische Cluster die sich wunderbar eignen langgestreckte Verteilungen zu approximieren<br />
= Trennfunktionsklassifikatoren (Farbpixelklassifikation 30 -39) =<br />
* Bei gegen Null gehenden Verteilungsdichten trangen weit entfernte Regionen keine Aussagekraft mehr → daher ist es Angebracht eine Rückweisungsklasse einzuführen<br />
<br />
== Mahalanobis ==<br />
* Verwenden der Mahalanobis-Distanz zur Klassifikation<br />
* wenn die Hauptdiagonale der Kovarianzmatrix >> als die restlichen Matrixelemente<br />
** Vereinfachung des Distanzmaßen möglich zu einem achsenparallelen Elipsoiden<br />
* wenn Streuung der einzelnen Merkmale gering ist vereinfacht sich der Ellipsoid zu einer Kugel (euklidisches Abstandsmaß)<br />
* wenn Streuung in den Klassen etwa gleich Groß ist können die Klassenspezifischen Skalierungen entfallen<br />
<br />
== Hyperquader-Klassifikation ==<br />
* Zur Zuordnung sind nur noch Intervalltests notwendig<br />
* Sehr grobe approximation der Klasse da meist elliptische Datenverteilungen auftreten<br />
* Funktioniert gut bei dekorrelierten Merkmalen → achsenparallele Ellipsen<br />
* schnell und einfach<br />
* kann eingesetzt werden um die Überlappung von Klassen zu abzuschätzen<br />
<br />
== Decision-Tree-Klassifikator ==<br />
<br />
== Linear Klassifikator → Hyperebene ==<br />
<br />
== Support Vector Machines ==<br />
<br />
== k-Nächster-Nachbar-Klassifikator ===<br />
<br />
= Neuronale Klassifikatoren (Farbpixelklassifikation 40- 45) =<br />
= Segmentierung (Seg 1 - 8) =<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Grundlagen_der_Farbbildverarbeitung&diff=6995Grundlagen der Farbbildverarbeitung2009-03-17T11:07:22Z<p>DarkGhost: /* Trennfunktionsklassifikatoren (Farbpixelklassifikation 30 -39) */</p>
<hr />
<div>Link zum [http://www.zbs-ilmenau.de/intern/vip-toolkit/index.php Vip toolkit]<br />
= Einführung (GF_a 8 - 47) =<br />
<br />
== Geschichtliches zur Farbe ==<br />
<br />
=== Newton ===<br />
<br />
* 1672: New Theory about Light and Colours<br />
** Sonnenlicht = Mischung einzelner Farben<br />
** Spektralfarben sind objektive Eigenschaft des Lichtes<br />
<br />
[...]<br />
<br />
=== Goethe ===<br />
<br />
[...]<br />
<br />
== Begriff der Farbe ==<br />
<br />
* '''Farbe im engeren Sinn, stellt eine spezielle menschliche Sinneswahrnehmung dar'''<br />
* <math>\Phi_i = \int_{\Delta \lambda_i} \varphi_{\lambda} (\lambda) d \lambda</math><br />
* Leistungsdichte <math>\phi (\lambda)</math> stellt dagegen den Farbreiz dar, der die Farbempfindung hervorruft<br />
* Vektoren <math>\underline \Phi</math> sind je nach Dimension mehr oder minder genaue Approximationen des Farbreizes<br />
<br />
* Orientierung am menschlichen visuellen System und die Betrachtung psychologischer und physiologischer Grundlagen sind von Interesse:<br />
** zur richtigen Bewertung der Schwierigkeiten und Herausforderungen bei der Schaffung technischer Lösungen<br />
** zur Anpassung technischer Lösungen der Bildwiedergabe an das visuelle System<br />
** zur Nutzung optimaler Naturprinzipien für technische Lösungen<br />
** weil technische Systeme im allgemeinen auf dem inneren Modell des Menschen von der Welt beruhen und dieses Modell in hohem Maße durch den visuellen Kanal des Menschen beeinflusst ist<br />
** weil optoelektronische Sensoren, Bildverarbeitung und Bildanalyse wichtige Schnittstellen zwischen Mensch und Maschine darstellen<br />
**weil viele Objekteigenschaften durch visuelle Eindrücke beschrieben werden<br />
<br />
* menschliches Auge kann ca. 100 Graustufen / ca. 300 000 Farben unterscheiden<br />
<br />
* Drei grundsätzliche Anwendungen von Farbinformation:<br />
** Pseudokolorierung<br />
** Falschfarbendarstellung<br />
** Echtfarbdarstellung (True Color) <math>\rarr</math> hier Schwerpunkt<br />
<br />
== Farbtäuschung ==<br />
<br />
* Zuordnung zwischen Physik und Wahrnehmung nur eindeutig wenn bunte Dinge isoliert betrachtet werden<br />
* Werden bunte Objekte in bunte Umgebungen eingebettet/bewegt, dann können abweichende Farbwahrnehmungen auftreten, so genannte Farbtäuschungen<br />
* es existieren unterschiedliche Arten solcher Täuschungen:<br />
** ''Farbinduktion oder simultaner Farbkontrast'' (Farbe wird durch ihre Umgebung modifiziert)<br />
** ''Farbkonflikt'' (es konkurrieren verschiedene Sehinformationen miteinander)<br />
** ''Subjektive Farben'' (es werden bunte Farbtöne wahrgenommen, die nicht vorliegen)<br />
<br />
'''Simultaner Farbkontrast:'''<br />
* erstmals 1839 beschrieben<br />
* wo der Effekt entsteht (Auge, Cortex) ist unklar<br />
<br />
'''Farbinduktion:'''<br />
* bei kleinteiligen, sich wiederholenden Strukturen erfolgt Angleichung<br />
* kann zur Rauschunterdrückung oder zur Unterdrückung von Feintexturen zugunsten der Erkennung größerer Objekte wichtig sein<br />
<br />
'''Farbkonflikt:'''<br />
* Formen und Strukturen konkurrieren mit Farben ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf White'sche Illusion])<br />
<br />
'''Subjektive Farben:'''<br />
* durch Bewegung ist es möglich Farben zu erzeugen die ursprünglich nicht vorhanden waren ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf Drehwurm in Farbe])<br />
<br />
== Farbwahrnehmung beim Menschen ==<br />
<br />
[...]<br />
<br />
=== Rezeptive Wahrnehmung ===<br />
* 1807 stellte Young die Hypothese auf das Farbsehen auf drei Arten von Sinneszellen beruht (rout,grün,blau)<br />
* erst 1964 konnten dies bewiesen werden, durch die Messung der Absorptionsspektren<br />
*[[Datei:Pdt-kurven.svg]]<br />
<br />
=== Postrezeptive Wahrnehmung ===<br />
* Mit dem 3 Farbenmodell konnten einige psychologische Erscheinungen nicht erklärt werden<br />
** Es werden 4 Farben als besonderst "rein" empfunden (Rto, Geln,Grün, Blau)<br />
** Unbunte Farben werden werden als das fehlen von Farben wahrgenommen<br />
** Schwarz schein gleichberechtigt zu Weiß<br />
** keine wahrgenommene Farbe erscheint zugleich rötlich und grün<br />
* das führte zur Gegenfarbentheorie die anfangs nur Psychologisch begründet war 1958 aber physiologisch Nachgewiesen werden konnte<br />
** Rot - Grün<br />
** Gelb - Blau<br />
** Schwarz - Weiß<br />
* → CIELab-Farbraum<br />
<br />
=== Kortikale Kodierung ===<br />
* Weder die 3 Farbentheorie noch die Gegenfarbentheorie beschreiben die bewusste Wahrnehmung des Menschen<br />
* Deshalb erweitertes Modell<br />
** Farbton / Buntton beschreibt die als besonderst rein empfundenen Spektralfarben<br />
** Sättigung beschreibt wie stark eine Farbe verblasst ist<br />
** Helligkeit beschreibt, wie hell oder dunkel eine Farbe ist<br />
* Wo/Wie genau die neuronale Verarbeitung erfolgt, ist noch nicht sicher belegt<br />
<br />
== Die Ordnung in der Welt der Farben ==<br />
* Newton kannte die Wellenlänge noch nicht → er ordnete die Farben nach dem Regenbogen<br />
* Goethe verwendete das Gegenfarbenmodell<br />
* Munsell schlug 1905 ein Farbordnungssystem vor bei dem alle Abstände zwischen den Farben Empfindungsmäßig gleich sind<br />
** führt zu einem geometrisch nicht regelmäßigen Körper<br />
<br />
== Das Modell der Farbe ==<br />
* '''Definition'''<br />
** Farbe ist diejenige Gesichtsempfindung eines dem Auge strukturlos erscheinenden Teils eines Gesichtsfeldes durch die sich diser Teil bei einäugiger Betrachtung mit unbewegtem Auge von einem gleichzeitig gesehenen ebenfalls strukturlos angrenzendem Bezirk allein unterscheidet (unbunte Farben: Schwarz, Weiß und Graustufen, bunte Farben: Helligkeit; Buntheit setzt sich aus Buntton und Farbsättigung zusammen)<br />
** Farbe ist durch Helligkeit, Buntton, Sättigung eindeutig bestimmt → 3D Modell<br />
*** drei linear unabhängige Größen<br />
*** Additive Mischung zur Reproduktion von Farbe (aus Rot, Grün, Blau)<br />
*** drei linearunabhängige Größen spannen immer einen Raum auf → Rot,Grün und Blau werden die Achsen dieses Raumes<br />
<br />
=== Farbvalenz ===<br />
* Mit unserem Modell läßt sich jede Farbe als linearkombination unserer drei Basisvektoren aufschreiben<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
** <math> \vec F</math> ... Farbvalenz<br />
** <math> \vec r, \vec g, \vec b </math> ... die drei Basisvektoren die den Raum aufspannen (Rot, Grün und Blau)<br />
** <math> R,G,B, |\vec F| </math> ... die Farbwerte<br />
** <math> \vec r \cdot R, \vec g \cdot G, \vec b \cdot B </math> ... die drei Primärvalenzen<br />
* Ermittelt werden die Farbwerte mit Hilfe der Vergleichsmethode<br />
** Eine Person vergleicht ein Target mit einer Farbe die aus den drei Primärvalenzen gemischt wird<br />
** wenn die Empfindung der beiden Farben gleich ist, dann notieren wir die Werte<br />
* Innere Farbmischung<br />
** das Target wird mit weißen Licht beleuchtet und wir drehen nur an dem Farbmischgerät<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
* Äußere Farbmischung<br />
** Wir beleuchten das Target mit farbigen Lichte<br />
**<math> \vec F+ B \cdot \vec b = R \cdot \vec r + G \cdot \vec g \rightarrow \vec F = R \cdot \vec r + G \cdot \vec g - B \cdot \vec b</math><br />
<br />
=== Farbreizmetrik ===<br />
* Die Farbreizfunktion <math> \varphi_\lambda</math> beschreibt die spektrale Zusammensetzung der Farbempfindungen<br />
*# Selbstleuchtende Objekte<br />
*#* <math> S_\lambda (\lambda)</math> beschreibt die spektrale Verteilung der Quelle<br />
*#* Wahrnehmung: <math> \varphi_\lambda = S_\lambda</math><br />
*# Auflicht Vorlagen<br />
*#* <math>\beta_\lambda(\lambda)</math> beschreibt den spektralen Remisionsgrad der Vorlage<br />
*#* Wahrnehmung: Licht reflektiert von der Vorlage <math> \varphi_\lambda = S_\lambda \cdot \beta_\lambda</math><br />
*# Durchlichtvorlagen<br />
*#* <math>\tau_\lambda(\lambda)</math> spektraler Transmissionsgrad der Vorlage<br />
*#* Wahrnehmung von Licht welches die Vorlage durchdrungen hat <math>\varphi_\lambda= S_\lambda \cdot \tau_\lambda</math><br />
* Damit haben folgende Faktoren Auswirkung auf die Wahrgenommene Farbe<br />
*# Die Beleuchtung des Objektes (Spektrale Zusammensetzung des Lichtes der Lampe)<br />
*# Das Remmisionsverhalten der beleuchteten Oberfläche<br />
*# Die wellenlängenabhängige Empfindlichkeit der drei Zapfen des Auges<br />
* Es besteht die Möglichkeit die pdt Kurven direkt zur Beschreibung des Farbempfindens zu nutzen<br />
* Die Farbwerte könnte man dann wie folgt ermitteln: <math> \left(\begin{matrix}P\\D\\T\end{matrix}\right)=k\int_{380\mathit{nm}}^{780\mathit{nm}}\varphi (\lambda )\cdot \left(\begin{matrix}p(\lambda )\\d(\lambda )\\t(\lambda )\end{matrix}\right)d\lambda </math><br />
* Für die technische Darstellung von Farbe werden allerdings R,G,B werte benötigt<br />
* Die dafür notwendigen Spektralwertkurven können mit Hilfe der Vergleichsmethode ermittelt werden<br />
* Man erhält damit folgende Kurven<br />
[[Datei:SpektralwertfunktionenRGB.jpg]]<br />
* Mit der gleichen Formel wie bei der pdt Kurve lassen sich nun die R,G,B Werte rechnerisch ermitteln<br />
<br />
== Farbanalyse, Zusammenhang mit der Farbwidergabe ==<br />
* Das Kammera - Monitor System soll die Farbe exakt wiedergeben<br />
* Der Monitor verwendet EBU Phosphore für die Farbdarstellung<br />
** haben selbst Spektralwert kurven => keine Monochromatischen Lichter mehr<br />
* Die notwendigen spektralwertkurven die die Kamera realisieren muss um die Bilder auf dem Monitor exakt darzustellen lassen sich mit Hilfe der pdt Kurven herleiten (Über forderung der Gleicheit der Farben)<br />
* Sie besitzen stark negative Anteile => Auch die Filter der Kamera müssten negative Transsmissionsgrade besitzen<br />
** technisch ist das nicht möglich<br />
* es bleibt also nur die Möglichkeit die notwendigen Parameter zur Ansteuerung des Monitors aus positive one-peak Kurven zu berechnen<br />
<br />
== Subtraktive Farbmischung ==<br />
* Die Subtraktive Farbmischung lässt sich auf die Multiplikation der Transmissionsgrade zurückführen (ein Filter lässt 50% rotes licht durch, wenn man zwei dieser Filter hintereinander legt, dann geht nur noch 25% rotes Licht durch die Anordnung (0.5*0.5 = 0.25) )<br />
* wenn <math> \tau_0 </math> die Transmission eines Filters für die normierte Dicke 1 und die normiert Dichte 1 ist dann kann man<br />
** mit dem Lambertschen Absorbtionsgesetzt die Absortption von dickern/düneren Material berechnen <br> <math> \tau = [ \tau_0]^w </math><br />
*** w ... Dicke des Materials im Verhältnis zum norm Material<br />
** mit dem Beerschen Gesetz die Transmission von Meterial mit anderer Dichte berechnen <br><math> \tau = [ \tau_0]^c </math><br />
*** c... Das Verhältnis der neuen zur alten Dichte<br />
** kann man auch kombinieren zu (Lambert-Beersches Gesetz)<br />
** <math> \tau = [ \tau_0]^{c \cdot w} </math><br />
* Da sich die Transmission Multiplikativ zusammensetzt wird auch gerne mit dem logarithmus der Transmission gerechnet (optische Dichte)<br />
**<math> D = - lg \tau = lg \frac{1}{\tau}</math><br />
** Damit vereinfacht sich das Lambert-Beersche gesetz zu: <math> D = c \cdot w \cdot D_0</math><br />
* selbstverständlich sind die Transmission <math>\tau</math> und die optische Dichte D von der Wellenlänge abhänig ... zur Übersichtlichkeit wurde das in den Formeln nur weggelassen<br />
* Bei einem Papierbild kommt zu dem Filter noch die Reflexion an der Farboberfläche und an der Papieroberfläche<br />
** Beachte das Licht was an der erste Schicht wegreflektiert wird kann icht tiefer eindringen. Nur noch <math> (1-\beta)*S </math> dringt an Licht durch den ersten Filter!<br />
*** <math> \beta </math> ... Remmisionsgrad der ersten Farbe<br />
*** <math> S </math> ... Spektrale Verteilung der Lichtquelle<br />
<br />
= Farbmetrische Schnittstellen - Farbräume (GF a 49 - 55) =<br />
<br />
<pre><br />
Unterschiedliche bildgebende Systeme<br />
z.B. Farbkameras<br />
Farbscanner<br />
Spezialkameras<br />
</pre><br />
'''Widerspruch''' <math>\updownarrow</math> Farbmetrische Schnittstelle<br />
<pre><br />
Unterschiedliche Bildwiedergabesysteme<br />
"True-Color-Darstellung"<br />
- unterschiedliche Monitore, Beamer, Drucker etc.<br />
</pre><br />
<br />
== Leuchtdichte (Luminanz) ==<br />
<br />
* Luminanz Y ist die Strahlungsleistung, bewertet mit der spektralen Empfindlichkeitsfunktion des Auges für das Hellempfinden<br />
* Y ist Leistungsproportional, wenn Lichtzusammensetzung (Leistungsdichte <math>\Theta (\lambda))</math> konstant bleibt<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* Leuchtdichte berechnet sich nach dem ''Abneyschen Gesetz'':<br />
: <math> Y = L = k \cdot \underline L^T \cdot \underline F </math><br />
:* <math>\underline L^T - </math> Leuchtdichtebeiwert: gibt an wie groß der Beitrag jedes Farbwertes der Farbvalenz zum Helleindruck ist, abhängig vom gewählten Farbwiedergabesystem<br />
* Leuchtdichte L <math>\ne</math> Intensität I<br />
: <math> I = \frac 1 3 (R+G+B)</math><br />
<br />
* die perzeptuelle Antwort unseres Auges auf die Leuchtdichte wird Helligkeit (Lightness) genannt<br />
: <math><br />
L^{\star} = \begin{cases}<br />
116 \cdot \sqrt [3] {\frac Y {Y_n}} -16, & \text{wenn } \frac Y {Y_n} > 0{,}008856\\<br />
903{,}3 \cdot {\frac Y {Y_n}}, & \text{wenn } \frac Y {Y_n} \le 0{,}008856<br />
\end{cases}<br />
</math><br />
<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: Eine Quelle die nur 18% der Luminanz einer Referenz hat, erscheint uns immer noch halb so hell wie die Referenz </span><br />
<br />
== Gammakorrektur und Luma ==<br />
* '''Gammakorrektur:'''<br />
** Aufgrund der Ansteuerung von CRT Monitoren und der verwendeten Phosphore ergibt sich ungefähr eine quadratische Abhängigkeit der Luminanz vom Videosignal<br />
** Die Luminaz der drein einzelnen Farbkanäle muss den gleichen Verlauf aufweisen. Sie dürfen sich nur in ihren Maximalwerten unterscheiden!<br />
*** Sonst ist es nicht möglich die Helligkeit zu ändern und dabei die Farbe konstant zu halten<br />
** Die Gammakorrektur sorgt dafür das die Farbwiedergabe auf dem Monitor linear verläuft und nicht quadratisch<br />
*** Notwendig damit wir die gleich Wahrnehmung erzielen können als währe das Kamera-Monitor System nicht vorhanden<br />
<br />
*'''Luma:'''<br />
** Luma ist die gewichtete Summe der drei Gammakorregierten Farbwerte R',G',B'<br />
** Damit ist Luma nicht gleich Luminanz<br />
<br />
*'''Brightness'''<br />
** Brightness ist ein Begriff der beschreibt wie stark eine Fläche Licht emmitiert oder sie hell sie erscheint<br />
** Besitzt kein festes Maß und wird daher sehr frei verwendet -> HSL<br />
<br />
== Farbsysteme, Farbräume, reduzierte Farbräume ==<br />
* Die Intensität einer Farbe ist <math> I = \frac{R + G +B}{3} </math><br />
* Wählt man die Intensität konstant mit <math>I=\frac{1}{3}</math> so ergibt sich eine Ebene die den RGB-Farb Würfel Diagonal schneidet und durch die R,G,B Eckpunkte geht<br />
* Jede Farbkoordinate kann auf diese Ebene projeziert werden -> Ermöglicht die Nutzung dieser Ebene als einfache Farbtafel<br />
** Diese Ebene kann dann noch auf die 0RG- Fläche des RGB Würfels projeziert werden ohne das die Ordnung der Farben gestört werden würde -> Der Farbton einer Farbe lässt sich allein durch r und g beschreiben<br />
* in die rg-Ebene können nun alle in RGB - darstellbaren Farben und alles existierenden Farben eingetragen werden<br />
** Danach erkennt man das sich technisch mit dem RGB-System nur ein kleiner Teil der exisiterenden Farben realisieren lässt<br />
<br />
= Das Normvalenz- oder XYZ-System (GF a 76 - 86) =<br />
* Alle Farbwerte sollen durch positive Farbwerte darstellbar sein<br />
** Für Farbmessung von Interesse<br />
** Das XYZ- Dreieck muss den spektralen Kurvenzug voll umschließen<br />
* Eine weitere Forderung ist das die Leuchtdichte als unabhängige Komponete auftreten soll<br />
* Die Fläche des Dreiecks soll so klein wie möglich sein<br />
* Die dadurch berechnbaren Normalvalenzen sind physikalisch nicht erzeugbar -> Die Spektralwertkurven für das System müssen berechnet werden<br />
** Die Berechneten Spektralwertkurven sind stets nichtnegativ -> immer positive Transmissionsgrade und Sensorempfindlichkeiten<br />
[[Bild:NORMXYZ1.JPG]]<br />
* Mit dem XYZ-System kann man nun Farbdreiecke vergleichen und Bewerten<br />
** Abstände, Fehler und Systemeigenschaften sollten aber in einem empfindungsmäßig gleichabständigen Farbraum bewertet werden (u'v'w' und CIELab)<br />
* '''Optimalfarbkörper'''<br />
** Beschreibt die Grenze aller darstellbaren Körperfarben<br />
** Zur Erstellung schneidet man rechteckförmige Stückchen aus dem Spektrum von Idealweißem Licht aus<br />
<br />
== Das UVW-System ==<br />
* Informationsgehalt der Farbe für den Menschen hängt davon ab welche Farbunterschiede er wahrnehmen kann<br />
* Vor allem ist das interessant wenn Bildverarbeitungsprobleme auf der menschlichen Wahrnehmung formuliert sind<br />
* xy-Farbtafel hat starke Unterschiede zwischen örtlichen Abstenden und empfindungsmäßigen Abständen -> ungeeignet<br />
* erste Lösung<br />
** lineare Transformation<br />
** W' -> Helligkeit<br />
** U' -> Rot-Grün Bundheit<br />
** V' -> Gelb-Blau Bundheit<br />
** Ergebnis<br />
*** Wesentlich besseres Darstellung der Empfindung (Faktor 10 gegenüber dem XYZ-System)<br />
* verbesserte Lösung<br />
** verwenden einer nicht linearen Abbildung (Auge wird mit berücksichtigt)<br />
<br />
== L*a*b* oder CIELAB-Raum ==<br />
* Gegenfarbmodell<br />
* empfindungsmäßig gleichabständiger Raum<br />
* Grundsätzlich zur Angabe von Farbabweichungen verwendet<br />
** Geeignet zur Bewertung von Druckern, Monitoren und Abweichungen von Nachfärbungen<br />
* als Farbdifferenzmaß wird der euklidische Abstand benutzt (<1 nicht mehr Wahrnehmbar)<br />
<br />
== L*u*v* oder CIELUV ==<br />
* für additive Mischung vorgesehen<br />
* wie der CIELAB- Raum ein empfindungsmäßiger gleichabständiger Raum<br />
<br />
== YCbCr - Crominanzwertsystem ==<br />
* Entwickelt damit Farbfernsehen und S/W-Fernsehen Parallel betrieben werden konnten<br />
* Crominanzwerte<br />
** sind von Leuchtdichte befreite Werte<br />
** verschwinden für alle unbunten Farben<br />
** Cr= R-Y, Cg = G-Y, Cb = B-Y<br />
** Das System aus CrCbCg und Y ist überbestimmt => Es reicht die Übetragung von Cr , Cb und Y<br />
* Da das Auge auf Helligkeitsunterschiede empfindlicher reagiert als auf Farbunterschiede können die Crominanzwerte mit geringerer Auflösung übertragen werden<br />
<br />
== ΘSY - System ==<br />
* Der Bunttonwinkel Θ berechnet sich aus dem Verhältnis der Crominanzwerte Cb und Cr<br />
* Die Sättigung S ist der Betrag des Vektors CrCb<br />
<br />
== HSI - Farbraum ==<br />
* Intensität: <math> I= \frac{R+G+B}{3} </math><br />
* Sättigung: <math> S = 1 - 3 \cdot min (r,g,b) </math><br />
* Hue: <math> H= \left\{ \begin{matrix}\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B\le G \\ 2\pi -\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B>G \end{matrix}\right . </math><br />
* Raum ist nicht gleichmäßig gefüllt<br />
* bei kleinen Intensitäten I in Buntton und Sättigung Instabil<br />
* Es kann bei Farbmanipulationen dazu führen das es keine Entsprechungen im RGB gibt<br />
** Lösungen:<br />
*** Dachförmige Begrenzung des HSI Raums -> sehr Aufwendig<br />
*** Normieren der Intensitäten -> Bild kann ins dunkle verschoben werden<br />
*** Maximalwert setzen -> Falsche Farbwerte (werden ins unbunte verschoben)<br />
*** proportionales skalieren bis Farbe im RGB-Würfel liegt<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
<br />
== HSL - Farbraum ==<br />
* Gern für Computergrafik verwendet<br />
* einfache Beziehungen<br />
* Die Verwendeten Biegriffe H,S,L entsprechen nicht der Bedeutung in der Farblehre und Form des Raumes<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
* Buntton ist extrem instabil bei kleinen Sättigungen<br />
* Form des Raumes ist unpraktisch<br />
<br />
= Farbmessung (GF 1 - 11) =<br />
<br />
* Farbmessung = Ermittlung der drei zu einer Farbvalenz gehörigen Farbmaßzahlen<br />
* 3 Messmethoden: <br />
** Vergleichsmethode oder Gleichheitsverfahren<br />
** Spektralverfahren<br />
** Dreibereichsverfahren<br />
<br />
== Gleichheitsverfahren ==<br />
<br />
* Vergleiche:<br />
** Vorlage mit additivem Gemisch<br />
** Vorlage mit Farbmusterkarten (DIN-Karten)<br />
* unverzichtbar bei physiologischen Untersuchungen<br />
* aufwendig und bei kleinen Probandengruppen ungenau<br />
* d.h. für technische Messungen ohne Bedeutung<br />
<br />
'''Messbedingungen nach DIN:'''<br />
* helladaptiertes und blendfreies Sehen<br />
* unbunter Messraum<br />
* neutrale Gesichtsfeldumgebung mit gleicher oder etwas kleinerer Leuchtdichte als im Messfeld<br />
* gut ausgeruhtes und neutral gestimmtes Auge<br />
* farbnormalsichtiger Beobachter<br />
<br />
== Spektralverfahren ==<br />
<br />
* zu messende Farbvalenz = Summe spektraler Farbvalenzen<br />
* greift auf gemessene Normspektralwertkurven zurück<br />
<br />
# '''spektrale Messung zur Ermittlung der Farbreizfunktion <math>\varphi (\lambda) </math>'''<br />
#* Selbststrahler: direkte Messung der Strahlungsfunktion <math>\rightarrow \varphi (\lambda)= S (\lambda)</math><br />
#* remittierende Vorlage: Remissionsfunktion der Vorlage messen, d.h. Strahlungsfunktion S ist vorher zu bestimmen und aus <math>\varphi (\lambda)</math> heraus zu rechnen <math>\rightarrow \varphi (\lambda)= \beta (\lambda) \cdot S (\lambda)</math><br />
# '''farbvalenzmetrische Auswertung'''<br />
#* wenn <math>\beta (\lambda)</math> ermittelt wurde, kann jede beliebige (tabellierte) Lichtquelle <math>S^{\ast} (\lambda)</math>eingesetzt werden<br />
#: <math><br />
\begin{bmatrix}<br />
X\\Y\\Z<br />
\end{bmatrix}<br />
= k \cdot<br />
\begin{bmatrix}<br />
\int \bar{x} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{y} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{z} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda<br />
\end{bmatrix}<br />
</math><br />
#* Normierungskonstante k:<br />
#** Selbststrahler: nur Farbwertanteile gefragt, d.h. k ist beliebig<br />
#** Körperfarben: Y für mattweißen Körper = 100, d.h. <math>k=\frac{100}{\int {S(\lambda) \cdot \bar{y}(\lambda) d \lambda}}</math><br />
<br />
'''Messgeometrien:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bildergalerie (45°,8°,Transmission) </span><br />
<br />
* ''45°-Geometrie'': Beleuchtung unter 45° schließt Glanzeinfluss aus <math>\rightarrow</math> Sensor blickt senkrecht auf Probe<br />
* ''8°-Geometrie'': Beleuchtung diffus über Ulbricht-Kugel <math>\rightarrow</math> Sensor blickt unter 8° auf Probe; Messung mit/ohne Glanz möglich<br />
* ''Transmissionsgeometrie'': Probe wird durchleuchtet<br />
<br />
== Dreibereichsverfahren ==<br />
* die drei Farbwerte werden direkt photometrisch gemessen<br />
* Filter und spektrale Empfindlichkeite der Strahlungsempfänger müssen an die spektrale Bewertungsfunktion angepasst sein<br />
* '''Luther-Bedingung:''' <math> \tau_x(\lambda) = \frac{c_x \cdot x(\lambda)}{s_1(\lambda)}</math><br />
** <math> \tau_x(\lambda) </math> ... Filtertransmission<br />
** <math>s_1(\lambda)</math> ... Sensorempfindlichkeit (hier im ersten Kanal)<br />
** <math>c_x</math> ... Gerätekonstante<br />
** Für den Y und Z Kanal ist die Formel analog<br />
* Der notwendige Filter kann gut durch ein Set von Schmalbandigen Filtern realisiert werden<br />
<br />
== Spektralmaskenverfahren ==<br />
<br />
* spezielles Dreibereichsverfahren<br />
* Lichtzerlegung erfolgt mit einem Prisma<br />
* Das zerlegte Lich beleuchtet eine Maske (Papier, Plaste, Metal .... ne richtige echte Maske)<br />
* Messen der spektralen Verteilung (CCD-Zeile)<br />
* Ähnlich dem Spektralverfahren nur das das spektrum bereits im analogen entsprechend gewichtet wird<br />
<br />
== Metamerie ==<br />
* zwei Farbproben die bei einer bestimmten Beleuchtung gleich aussehen können bei einer anderen Beleuchtung ganz anderst aussehen<br />
* Der Metermarie-Index beschreibt diesen durch Beleuchtungswechsel entstehenden Farbwechsel<br />
* KEIN Maß für die Farbkonstantheit sondern für den Unterschied von zwei Proben<br />
* Berechnung erfolgt im L*a*b* Raum <br> <math> M_T = \sqrt {(L_{1T}-L_{2T}+L_{2B}-L_{1B})^2 +(a_{1T}-a_{2T}+a_{2B}-a_{1B})^2+(b_{1T}-b_{2T}+b_{2B}-b_{1B})^2 } </math><br />
** T ... Testlicht<br />
** B ... Bezugslicht<br />
** 1,2 ... Probennummern<br />
<br />
= Klassifikation von Messaufgaben (GF 82 - 86) =<br />
<br />
# Messung von objektiven Eigenschaften, die sich in der Veränderung spektraler Charakteristika niederschlagen<br />
#* vordergründig ist Zusammenhang zwischen Veränderungen in den physikalischen Eigenschaften von Interesse (z.B. Waferinspektion)<br />
#* Zusammenhang sollte eindeutig und von hinreichender Empfindlichkeit sein<br />
#* Wahrnehmung unterschiedlicher Farben eher Nebeneffekt<br />
# Überwachung der Stabilität von farblichen Erscheinungen<br />
#* ist bei einer oder mehreren Beleuchtungen zu überwachen<br />
#* absolute Farbmessung nicht nötig; "Anlernen" auf Farben genügt<br />
#* Abstände im Farbempfinden müssen sich in gleicher Weise in Veränderungen der Sensorsignale wiederspiegeln<br />
# absolute Farbmessung<br />
#* d.h. Ermittlung der korrekten Farbvalenz unter beliebigen Messbedingungen<br />
#* Spektralwertkurven müssen realisiert werden<br />
# Messung des spektralen Remissions- und/oder Transmissionsverhaltens von Materialien<br />
#* ausschließlich spektrale Messverfahren<br />
#* Messung der Strahlungsfunktion und der remittierten Leistungsdichte<br />
#* Berechnung der Farbvalenz bei beliebiger Beleuchtung und des Metamerie-Index<br />
<br />
'''steigende Ansprüche mit steigender Nummerierung'''<br />
<br />
= Einfache Farbkalibrierung (GF 16 - 41) =<br />
* Farben sollen möglichst exakt Wiedergegeben werden<br />
<br />
== Ausgleich von Beleuchtungseinflüssen ==<br />
* Körperfarben werden durch ihre Remmision bestimmt <math> \beta </math><br />
* Bei unterschiedlicher Beleuchtung sehen Farben unterschiedlich aus aber das Auge kann sich an die Beleuchtung adaptieren<br />
** Funktioniert bei Fotos aber nicht -> Beleuchtungsausgleich ist wichtig<br />
** Bei Farbvergleich noch viel mehr<br />
** Wird realisiert durch Weißabgleich (auf integraler Farbebene nicht möglich )<br />
* Direkte Vermessung der spektralen Eingenschaften der Kamera nicht möglich (Da Werte in Kamera bereits verrechnet werden um z.B. die negativen Anteile der Spektralkurven zu realisieren)<br />
** sehr Aufwendig (Kamera auseinanderbasteln um an die echten werte zu kommen + das durchgehen durch das Spektrum in kleinen Schritten)<br />
* Daher Verwendung von Testfarben<br />
** Führt auf Lösung eines linearen Gleichungssystem<br />
** Für menschliches empfinden -> Optimieren im CIELAB-Raum<br />
* Vorsicht bei nichtlinearen Funktionen zur Farbkalibrierung -> Kann bei zu wenig Testfarben zu total falschen Ergebnissen führen !!<br />
<br />
= Color Management (F CM 1 - 20) =<br />
* verschiedene Geräte können verschiedenen Farben darstellen<br />
* verschiedene Geräte verwenden andere Grundfarben zum mischen<br />
* Mit Hilfe von Profilen (Tabellierung der Farbwerteumrechnungen) wird eine Konvertierung der Farben vom Geräteraum in den CIELab Raum bzw umgekehrt durchgeführt<br />
* in den Profilen wird auch vermerkt welche Farben darstellbar sind und welche nicht<br />
* Somit kann man eine "Druckvorschau" auch auf einem Monitor erreichen (natürlich nur für Farben die auf beiden Geräten dargestellt werden können)<br />
** Jedes Mapping der Farben (Gamut-Mapping stellt somit einen Kompromiss dar)<br />
**# Perceptual (Die Farbbeziehungen untereinander werden erhalten) Komprimierung des Gamuts bis er in den zur Darstellung verwendeten passt<br />
**# Colometrisch -> Exakte Reproduktion aller in beiden Gamuts darstellbaren Farben<br />
**## relativ -> weiß wird auf weiß abgebildet und alle anderen Farben relativ dazu<br />
**## absoult farbmetrisch<br />
**# Saturation, alle Farben außerhalb des Zielgamuts werden zugunsten der Sättiung verändert<br />
* Kalibrierung -> Versetzen des Gerätes in einen definierten, reproduzierbaren Zustand<br />
* Charakterisierung -> Modellierung eines Gerätes welches sich ein einem stabilen definierten Zustand befindet<br />
<br />
= Kameras (GF_Ka 1 - 12) =<br />
<br />
'''Einsatzfelder:'''<br />
* ortsaufgelöste Messung von Farbe<br />
* Aufnahme und Wiedergabe von True-Color Bildern<br />
* Aufnahme farbiger oder mehrkanaliger Bilder für die Verarbeitung/Analyse (Qualitätssicherung)<br />
* Photogrammetrische Anwendungen (Lösung des Korrespondenzproblems)<br />
* Radiometrische Anwendungen (Messen im Spektralbereich)<br />
<br />
'''Dreibereichsmessung:'''<br />
* setzt die Trennung von drei sich überlappenden Spektralbereichen voraus, die dann wellenlängenabhängig zu bewerten und zu integrieren sind<br />
<br />
== Dreichip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* optische Kanaltrennung und Bewertung<br />
* beste Bildqualität, da hohe Auflösung in allen drei Kanälen<br />
* keinen örtlichen Versatz der Pixel in den drei Farbauszügen<br />
* Filter einfacher und präziser zu realisieren<br />
* befinden sich z.B. als dichroitische Spiegel auf den Strahteilerprismen<br />
<br />
<span style="color:#ee0000;"> \\ Hot-Mirror-, Cold-Mirror-Korrektur????</span><br />
<br />
== Einchip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: doppelte Anzahl grüner Pixel wegen Schärfe, MTF des Auges </span><br />
<br />
* örtliche Kanaltrennung und Bewertung<br />
* Streifen- oder Mosaikfilterstrukturen auf den einzelnen Pixeln zur örtlichen Signaltrennung<br />
* 3 oder 4 unterschiedliche spektrale Auszuüge zur Erzeugung der Farbinformation<br />
* Matrix selbst kann Interline- oder Frame-Transfer-Matrix sein<br />
* kostengünstiger und kleiner als Dreichip-Kameras<br />
* Probleme:<br />
** Farbvalenzen aus örtlich versetzten Auszügen (z.B. Farbsäume an Kanten)<br />
** nicht korrigierbare Fehler aus Nichtlinearitäten und Dunkelsignalen bei der Bildung von Mischsignalen<br />
<br />
'''generelle Anforderungen an die Signalverarbeitung:'''<br />
<br />
* primäre Kamerasignale stellen keine farbmetrische Schnittstelle zur Verfügung, d.h. alle Bewertungsfunktionen sind nicht-negativ (Spektralwertkurven fordern aber negative Wichtungen)<br />
* je nach realisierten Filtern und Genauigkeitsansprüchen <math>\rightarrow</math> lineare Matrizierung (meist Kameraintern) oder komplexere Approximation<br />
* bei hohen Genauigkeitsansprüchen <math>\rightarrow</math> Umgehung der Kamerainternen Matrizierung, weil Verstärkungsfaktoren, Toleranzen, Temperaturdrift, Langzeitstabilität etc. nicht bekannt sind<br />
* insgesamt geringe Nichtlinearitäten der CCD's können in den Ansteuerbereichen der einzelnen Kanäle zu wesentlichen Fehlern führen:<br />
** Farbvalenz ändert sich kontinuirlich mit der Shutterzeit<br />
** Pixelweise DSNU- (Dunkelsignalungleichförmigkeit) und PRNU- (Hellsignalungleichförmigkeit) Korrektur vor Erzeugung der Farbvalenz erforderlich, da sich Festmusterrauschen nicht nur auf Intensität sondern auch auf Farbart auswirkt<br />
** Dunkelsignal verdoppelt sich alle 7K, Gleichanteil wird aber geklemmt<br />
** Lichtquellentyp und Langzeitverhalten wirken sich nicht nur Intensität sondern auch auf Farbtemperatur aus<br />
<br />
'''4 spektrale Bereiche:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* vorteilhaft zur Erzeugung von Farbdifferenzsignalen für die TV-Kompatibilität<br />
* im Field-Integration-Mode werden Mischsignale gebildet, die die erforderliche Signalkorrektur für hohe Ansprüche behindern<br />
* Nichtlinearität der Ausgangsverstärker wirkt sich auf Korrektur der primären Mischsignale aus<br />
<br />
== Sequentielle Einchip-Kamera ==<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* zeitliche Kanaltrennung und Bewertung<br />
* relativ genaue Approximation der Spektralwertkurven möglich<br />
<br />
== Elektrisch steuerbare Filter ==<br />
<br />
* über die Wellenlängenabhängigkeit der Eindringtiefe der Photonen und die Steuerbarkeit der Tiefe der Potentialmulden der sensoren lassen sich steuerbare spektrale Empfindlichkeiten erzeugen<br />
<br />
= Verarbeitung von Farbbildern (1 - 31) =<br />
* Das unabhängige verarbeiten der Farbkanäle eines Farbbildes führt zu Nebeneffekten wie Farbsäume<br />
* Die höhere Vielfalt des mehrdimensionalen Raumes von Farbbildern kann Vorteilhaft genutzt werden für Pixelklassifikation, Segmentierung <br />
* Abstände, Mittlere Werte und örtliche Veränderungen sind in empfindungsmäßig gleichabständigen Räumen zu definieren und zu bewerden<br />
<br />
== Histogramme und Statistiken für Farbbilder ==<br />
* Farbbilder liefern dreidimensionale Häufigkeitsverteilungen im Farbraum → können als Approximation der entsprechenden 3D-Dichten verwendet werden<br />
* statistische Zusammenhänge zwischen den Kanälen werden in mehrdimensionalen Dichten betrachtet<br />
** Für Handauswertung meist nur 2D-Dichten, wegen der Übersicht<br />
** Für maschinelle Auswertung können diese dichten auch dreidimensional werden<br />
** für die parametrische Darstellung der Cluster werden meist multivariante Gaußverteilungen eingesetzt<br />
*** Einr Gaußverteilung ist für die Beschreibung eines Bildes mit mehreren Objekten nicht geeignet<br />
*** Die Kovarianzmatrix einer solchen "Approximation" kann aber gut zur Einschätzung der Streuung und der Mittelwerte in dem Bild eingesetzt werden<br />
<br />
=== Histogramm - Modifikationen ===<br />
* Contrast Streching, Polygonal Image Scaling, Histogram-Equalisation Siehe [[Grundlagen der Bildverarbeitung und Mustererkennung#homogene Punktoperationen|Grundlagen der Bildverarbeitung]]<br />
* Manipulation kann in verschiedenen Farbräumen ausgeführt werden (RGB,HSI,...)<br />
** In nicht empfindungsmäßig gleichabständigen Räumen muss die Transformation nicht unbedingt zum Ziel führen<br />
==== Manipulation im Farbraum RGB ====<br />
* ist der Farbraum in dem die Daten häufig vorliegen<br />
* Wirkung kann auf Grund der starken korrelation der RGB Werte bei geringen Sättigungen ausbleiben<br />
* Farbverfälschung wenn einzelne Kompontenen unabhänig von einander behandelt werden<br />
* hohes apriori-Wissen notwendig<br />
* wenn Falschfarbdarstellung gewünscht ist kann dies das mittel der Wahl sein<br />
<br />
==== Manipulationen im Farbraum HSI ====<br />
* unproblematisch in Bezug auf Farbverfälschungen<br />
* Zielsetzungen können sich einfacher beschreiben lassen (ähnelt der Beschreibung von Farbe durch den Menschen)<br />
* unabhängige Komponente (Intensität)<br />
* Kontrastverbesserung durch Sättigungsausgleich ohne Farbveränderung möglich<br />
* Stabilitätsprobleme nahe den unbunten Farben<br />
# '''Ausgleich des Intensitätshistogramms'''<br />
#* Werte möglich die keine entsprechung mehr im RGB haben → müssen geeignet herruntergerechnet werden<br />
#* bei kleinen Intensitäten sind die Bunttöne instabil → ausschließen von Veränderungen<br />
# '''Sättigungsausgleich'''<br />
#* Modifikation der Sättigung unter Beibehaltung des Bunttones<br />
#* Bei kleinen Sättigungen und kleinen Intensitäten ist der Buntton instabil → Ausschließen<br />
#* Histogramm über alle Bunttöne ist häufig verschmiert → besser Histogramm über Buntton Segmente<br />
# '''Bunttonausgleich'''<br />
#* Ziel sind Farbfalschbilder um Objekte besser unterscheiden zu können<br />
#* bei zu großen Buntton Änderungen wird die Interpretierbarkeit nur bei homogenen Flächen verbessert, meist wird sie eher verschlechtert<br />
#* Unsicherheit des Bunttons → bei geringen Sättigungen und Intensitäten ist der Buntton auszuschließen<br />
<br />
== segmentgesteuerte Farbvalenztransformationen ==<br />
* Globale Statistiken werden häufig durch nicht interressante Objekte dominiert<br />
* Ausweg ist das Betrachten von Ausschnitten und anwenden der Transformationen auf die Ausschnitte<br />
* erfordert zu erst das Segmentieren des Bildes<br />
<br />
= Referenzfreie Farbadaption auf Basis des 3D-Histogramms (HuS 32 - 39 ) =<br />
* unter bestimmten umständen kann auf eine Kalibrierung der Kamera mittels Referenzfarben verzichtet werden<br />
* Zur Korrektur soll die parametrische Approximation der 3D-Histogramme durch multivariante Gaußverteilungen genutzt werden<br />
== Vorraussetzungen für die Anwendbarkeit ==<br />
* Strukturierte Szene mit mehreren ntürlichen Objekten, die gleichmäßig über den Bunttonwinkel verteilt sind und durchschnittlichen Sättigungsgrad aufweisen<br />
* Langgestreckter SW-Prozess im Vergleich zum Rot-Grün und Blau-Gelb Prozess<br />
<br />
== Vorgehensweise ==<br />
* Korregieren von "vermutlichen" Abweichungen des Bildes in der Unbuntheitsachse<br />
* Dazu Ermitteln der Hauptachsen mit PCA<br />
* Drehen der Hauptachse in den SW-Prozess<br />
* Rücktransformation und Darstellung<br />
<br />
= Histogrammbasiertes Farbmatching(1 - 15) =<br />
* Histogramme sind im 2D Bild invariant gegenüber Rotation, Translation und Maßstab (wenn die Angaben relativ erfolgen !)<br />
* Histogramme sind auch relativ stabil gegenüber moderaten Verdeckungen und 3D-Rotation<br />
* Grobe Quantisierung der Histogramme um Fehlertoleranz zu erhöhen<br />
* Damit können Histogramme zur Objekterkennung eingesetzt werden → Bezeichnet als Color Indexing<br />
<br />
== uniformes Binning ==<br />
* einteilen der Farben in ein gleichverteiltes Histogramm<br />
* Suche in einem Bild den Ausschnitt welcher eine minimale Distanz zum Referenzbild hat<br />
* Als Abstandsmaß verwendet werden die Histogramme genutzt<br />
** Summe der Quadratischen Differenzen (Histogramme als Vektoren betrachtet und dann den euklidischen Abstand berechnet ohne Wurzel)<br />
** Earth Movers Distance (Berechnen was sich wohinverteilt haben könnte ... erfordert die Lösung des Transportproblems)<br />
* einfach aber die Bins ändern sich Sprunghaft, vor allem dann wenn Farben knapp an den willkürlichen Bingrenzen liegen<br />
<br />
== Unscharfe Chroma-Orts-Histogramme ==<br />
* Nachteile des uniformen Binning sollen überwunden werden<br />
* Alle Pixel bekommen eine unscharfe Klassenzugehörigkeit (Binnzugehörigkeit) je nach Abstand zum entsprechenden Binnmittelpunkt (wie bei [[Softcomputing|Fuzzy-C-Means]])<br />
** Ein Parameter ermöglicht dabei die Verunschärfung einzustellen (von total unscharf bis zum festen Binning)<br />
* Auch der absolute Ort der Segmente (aus denen die Histogramme erstellt werden) soll mit verwendet werden<br />
** Dazu wird das Bild in entsprechende Bereiche geteilt (8x8,16x16,...)<br />
** Alle Blöcke werden durchnnummeriert<br />
** Auch hier kommt es zu harten Umbrüchen wenn Pixel knapp an den Grenzen liegen → auch hier verunschärfen<br />
** Welche Indizees haben die Nachbarn? (Nachbarschaft in den Indizees der Blöcke heißt nicht gleich 2D-Nachbarschaft)<br />
<br />
== Cluster mittels Graphenansatz ==<br />
* Ziel ist es:<br />
** Sprunghafte Änderung der Binns zu verhindern<br />
** wenige Merkmale zu verwenden<br />
** Eng beieinander liegende Maxima trotzdem unterscheiden zu können<br />
* Verwendete Bilddaten:<br />
** Farbwinkelhistogramm, wenn Sättigung der Farben ausreichend ist<br />
** Intensitätsdiagramm, wenn Sättigung der Farben zu gering wird<br />
* Vorgehen:<br />
** Jeder Wert im Histogramm zeigt auf den Größten in seiner Nachbarschaft<br />
** Das Maximum zeigt auf sich selbst → Wird Merkmal<br />
** Weiteres Merkmal ist die Fläche die zum Maximum gehört (Nachbarn die direkt bzw. indirekt auf das entsprechende Maximum zeigen)<br />
* Match:<br />
** Finde ein Tupelpaar (Maxima in Referenzhistogram und Suchhistogram mit dem geringsten Abstand)<br />
** Ziehe gemeinsame Fläche von jedem Tupel des Paares ab<br />
** summiere gemeinsame Fläche (?)<br />
** Wiederhole bis sich keine Tupelpaare mehr bilden lassen<br />
** beziehe die laufende Summe auf das Maximum der Summe der ursprünglichen Flächen<br />
<br />
= Störunterdrückung (SU 1 - 16) =<br />
* Für nachfolgende Verarbeitungsschritte ist die Störunterdrückung sehr wichtig<br />
* Verschiedene verfahren der Rauschunterdrückung sind in [[Grundlagen der Bildverarbeitung und Mustererkennung#Lokale Operatoren zur Bildverbesserung (LOa 1 - 44) |BV]] eingeführt worden<br />
<br />
== Störunterdrückung durch Faltungsfilter ==<br />
* Anwendung wird einfach vektoriell durchgeführt (als würde man drei unabhängige Bilder gleichzeitig Filtern wollen)<br />
* es entstehen neue Farbtöne an den Übergängen zwischen Farben<br />
* im HSI Farbraum ist eine getrennte Betrachtung der Farbe und der Sättigung/Intensität möglich<br />
* Buntton ist zyklisch → muss bei der Mittelung beachtet werden<br />
* in der Farbe kann stärker gemittelt werden als in der Helligkeit (Auge nimmt Farbveränderungen schlechter wahr)<br />
* Komplexe Zahlen bieten sich hier als Rechenmittel an<br />
<br />
== adaptive gewichtete Mittelung ==<br />
* detailerhaltende Fähigkeiten von Filtern wegen der Farbsäume besonders von Interesse<br />
* Abstände verkomplizieren sich im Vergleich zu Grauwertbildern (Vektorabstandsmaße, Winkeldifferenzen,...) <br />
* Vorgehen nach dem Berechnen des Abstandes dann wieder Analog zur Grauwertfilterung<br />
<br />
== Medianfilterung ==<br />
* Problem bei der Übertragung des Rangordnungsgedankens auf Vektoren<br />
** Komponentenweises Vorgehen ist nicht geeignet (absolute Farbverfälschungen möglich)<br />
** Suche des besten Vertreters des SETS (wenn der verwendete Media im SET ist werden keine zu falschen Farben gewählt/gesetzt)<br />
*** kleinste Abstandssumme zu allen anderen Pixeln<br />
<br />
== Kombination von Averaging und Medianfilterung ==<br />
* Medianfilter ist gut für Impulsrauschen, schlecht bei Gauß hier ist Average gut<br />
* Bei den Filtern gibt es keinen unterschied zu den Grauwertbildern (unterschied besteht nur in der Realisierung der verwendeten Media/Average Filter nicht in ihrere Kombination)<br />
<br />
== Vektor-Richtungs-Filter ==<br />
* '''Basic Vecotr Directional Filter'''<br />
** Winkel zwischen Farbvalenzen als Distanzmaß<br />
** Ergebnis ist die Farbvalenz mit der kleinsten Winkeldifferenzsumme zu allen Valenzen des Fensters<br />
** Achromatische Rauschkomponenten werden nicht beseitigt<br />
* '''Generalized Vector Directional Filter '''<br />
** Suche nach den besten Vektoren aus Sicht der Richtung<br />
** Medianfilterung der Beträge der Vektoren<br />
* '''Directional Distance Filter'''<br />
** Vermeiden der Ineffizenz des GVDF Filters durch ein gemischtes Distanzmaß (Betrag und Winkel gleichzeitig)<br />
<br />
= Kantendetektion in Farbbildern (1 - 21) =<br />
* Wichtig für Segmentierung, Bildanalyse und Bildverstehen<br />
* [[Grundlagen der Bildverarbeitung und Mustererkennung#Kantendetektion (LK 1 - 38)| Kantenfilter]] bereits aus BV bekannt<br />
# '''Vektrogradient'''<br />
#* Berechnen der Jacobi-Matrix<br />
#* Wurzel aus dem größten Eigenwert ist der Vektorgradient<br />
#* Extrem Rechenaufwendig<br />
# '''Mittelwert der Richtungsableitungen'''<br />
#* Entspricht dem Gradienten im Intensitätsbild<br />
#* Zwei engegengesetzte Gradienten in unterschiedlichen Farben können sich gegenseitig aufheben → der Gradient der dritten Farbe dominiert egal wie klein er ist<br />
# '''Maximaler Gradient'''<br />
#* Suche nach dem Gradienten mit dem größten Betrag<br />
#* Korrelation der einzelnen Gradienten ist nicht von Bedeutung<br />
<br />
= Farbpixelklassifikation (Farbpixelklassifikation 1 - 21) =<br />
* Die Farbvalenzen bilden die Merkmale der Pixel<br />
* Anzustrebende Eigenschaften<br />
** Gute Beschreibung der Klassencluster und gute Trenneigenschaften<br />
** Einfache Belehrbarkeit (Aus Beispielen oder Expertenwissen)<br />
** Echtzeitfähigkeit<br />
** möglichst frühe Stufe der Verarbeitungskette ("Anspruchslosigkeit an das Bild")<br />
** Nutzen von Klassenzugehörigkeitsmaßen<br />
<br />
== optimaler Klassifikator ==<br />
* basiert auf dem Bayes-Theorem<br />
* findet die optimale Klassenentscheidung<br />
* Jeder Datenpunkt wird in die Klasse eingeordnet zur der er am Wahrscheinlichsten gehöhrt und bei der er die kleinsten Kosten für die anderen Klassen verursacht<br />
** Benötigt eine Risikofunktion die Angibt wie groß die Kosten bei Fehlklassifikation zwischen zwei Klassen sind<br />
*** Meist unbekannt und deswegen wird davon ausgegangen das die Kosten für jede Fehlklassifizierung gleich sind<br />
*** Kosten können durchaus auch bei richtiger Klassifikation definiert werden<br />
** Benötigt die Wahrscheinlichkeitsverteilung der Klassen im Raum (Meist unbekannt → Problem)<br />
*** können beliebig sein werden aber meist durch Gaußfunktionen approximiert<br />
*** in der Lernphase werden die Parameter dieser Verteilung geschätzt<br />
* Da Wahrscheinlichkeitsverteilung meist unbekannt ist, wird der Klassifikator ehr genutzt um einen anderen Klassifikator zu bewerten, wenn man eine bestimmt Wahrscheinlichkeitsverteilung festlegt (wie optimal ist der andere Klassifiaktor)<br />
<br />
== Maximum-Likliehood-Klassifikator ==<br />
* im Ansatz wie optimaler Klassifikator<br />
* setzten der Risikofunktion für alle Fehlklassifikationen auf einen konstanten Wert<br />
* verwenden von multivarianten Gaußdichten zur Beschreibung der Klassen<br />
* Entscheidung wird nur noch nach der a posteriori Wahrscheinlichkeit und der Klassen Verteilung gefällt<br />
<br />
== Malanobis-Abstandsklassifiaktor ==<br />
* schränkt den optimalen Klassifikator noch weiter ein im vergleich zum MLK Klassifikator<br />
* Kostenfunktion für Fehlklassifikation ist konstant für alle Fehlklassifikationen<br />
* Die a posteriorie Wahrscheinlichkeit für das auftreten der Klassen sein für alle Klassen gleich<br />
* Die Kovarianzmatrizen der Gaußverteilung der Klassen sind ähnlich<br />
* Damit ist die zuordnung zu den Klassen nur noch vom Abstand zu den Klassenzentren bestimmt<br />
** Abstandsmaß ist die Mahalanobis-Distanz<br />
<br />
== Gaußklassifikator und Kernel-Densitiy-Klassifikator ==<br />
* schränken noch weiter ein<br />
# '''Gaußklassifikator'''<br />
#* keine Kovarianzen mehr in der klassen Verteilung → Kugelförmige Klassenverteilungen<br />
# '''Kernel-Density-Klassifikator'''<br />
#* Spezialfall von Gauß-Mischverteilungen<br />
#* [... was genau der Macht frage ich in der Konsultation mal nach ... im Skript steht nix brauchbares]<br />
<br />
== LUT-Klassifikator ==<br />
* direktes Verwenden der Stichprobenhistogramme<br />
* erforder Closing im Merkmalsraum da nicht alles durch die Stichproben abgedeckt werden wird<br />
<br />
= Clusterverfahren (Farbpixelklassifikation 19 - 29) =<br />
* Ziel ist es komplexe Klassenbeschreibungen durch mehrere parametrische Einzelcluster zu approximieren<br />
* Beliebig komplexe Klassenformen lassen sich so Speichereffizient beschreiben<br />
* trotz Komplexer Beschreibung bleibt eine weiche Klassengrenze möglich<br />
<br />
== Erzeugen der Cluster ==<br />
=== Radiusrestriktionsmethode ===<br />
* keine Startpartition erforderlich<br />
* indirekte Optimierung: Zielfunktion dient nur der Bewertung der fertigen Partition<br />
* Ablauf:<br />
*# Erstes Element initialisiert das erste Cluster<br />
*# Alle Elemente werden einem Cluster zugeordnert wenn der Abstand zum Clusterzentrum unterhalb eines bestimmten Wertes liegt<br />
*# Für alle Elemente die damit ausserhalb der Cluster liegen wird ein neuer Cluster angelegt<br />
*# Wichtig ist eine gute Radiusschätzung der Cluster (Varianz der Stichprobe durch Anzahl der gewünschten Cluster)<br />
*# als Gütefunktion nutzt man die Quadratische Abweichung von den Clusterzentren<br />
<br />
=== Minimaldistanzmethode ===<br />
# Ausgangspunkt ist eine nur die Radiusrestriktionsmethode erstellte Partition<br />
# Alle Klassen Mittelpunkte werden neu Berechnet<br />
# Berechnen einer neuen Minimaldistanzpartiton anhand einer gewählten Metrik<br />
# Ein Abbruchkriterium entscheidt über das weitere vorgehen<br />
#* Kriterium für Partition ist besser geworden → mache Weiter<br />
#* Anzahl der Interationschritte überschritten → Abbruch<br />
#* Anzahl der Interationschritte noch nicht überschritten && Kriterium für Partition ist gleich geblieben → mache weiter<br />
#* Kriterium für Partition ist schlechter geworden → breche ab<br />
<br />
=== k-Means-Austauschverfahren ===<br />
# Ausgangspunkt ist eine Startpartition<br />
# Merkmalsvektoren umgruppieren wenn die distanz zu einem anderen Klassenzentrum kleiner ist als zum aktuellen<br />
# Neu berechnen der Klassenmetriken<br />
# Abbruch wenn anzahl der Interartionsschritte überschritten ist oder keine Umgrupierung mehr erfolgt<br />
* Meist eingesetzt wird die Mahalanobis-Distanz → Hypereliptische Cluster die sich wunderbar eignen langgestreckte Verteilungen zu approximieren<br />
= Trennfunktionsklassifikatoren (Farbpixelklassifikation 30 -39) =<br />
* Bei gegen Null gehenden Verteilungsdichten trangen weit entfernte Regionen keine Aussagekraft mehr → daher ist es Angebracht eine Rückweisungsklasse einzuführen<br />
<br />
== Mahalanobis ==<br />
* Verwenden der Mahalanobis-Distanz zur Klassifikation<br />
* wenn die Hauptdiagonale der Kovarianzmatrix >> als die restlichen Matrixelemente<br />
** Vereinfachung des Distanzmaßen möglich zu einem achsenparallelen Elipsoiden<br />
* wenn Streuung der einzelnen Merkmale gering ist vereinfacht sich der Ellipsoid zu einer Kugel (euklidisches Abstandsmaß)<br />
* wenn Streuung in den Klassen etwa gleich Groß ist können die Klassenspezifischen Skalierungen entfallen<br />
<br />
== Hyperquader-Klassifikation ==<br />
<br />
== Decision-Tree-Klassifikator ==<br />
<br />
== Linear Klassifikator → Hyperebene ==<br />
<br />
== Support Vector Machines ==<br />
<br />
== k-Nächster-Nachbar-Klassifikator ===<br />
<br />
= Neuronale Klassifikatoren (Farbpixelklassifikation 40- 45) =<br />
= Segmentierung (Seg 1 - 8) =<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Grundlagen_der_Farbbildverarbeitung&diff=6994Grundlagen der Farbbildverarbeitung2009-03-17T10:55:49Z<p>DarkGhost: </p>
<hr />
<div>Link zum [http://www.zbs-ilmenau.de/intern/vip-toolkit/index.php Vip toolkit]<br />
= Einführung (GF_a 8 - 47) =<br />
<br />
== Geschichtliches zur Farbe ==<br />
<br />
=== Newton ===<br />
<br />
* 1672: New Theory about Light and Colours<br />
** Sonnenlicht = Mischung einzelner Farben<br />
** Spektralfarben sind objektive Eigenschaft des Lichtes<br />
<br />
[...]<br />
<br />
=== Goethe ===<br />
<br />
[...]<br />
<br />
== Begriff der Farbe ==<br />
<br />
* '''Farbe im engeren Sinn, stellt eine spezielle menschliche Sinneswahrnehmung dar'''<br />
* <math>\Phi_i = \int_{\Delta \lambda_i} \varphi_{\lambda} (\lambda) d \lambda</math><br />
* Leistungsdichte <math>\phi (\lambda)</math> stellt dagegen den Farbreiz dar, der die Farbempfindung hervorruft<br />
* Vektoren <math>\underline \Phi</math> sind je nach Dimension mehr oder minder genaue Approximationen des Farbreizes<br />
<br />
* Orientierung am menschlichen visuellen System und die Betrachtung psychologischer und physiologischer Grundlagen sind von Interesse:<br />
** zur richtigen Bewertung der Schwierigkeiten und Herausforderungen bei der Schaffung technischer Lösungen<br />
** zur Anpassung technischer Lösungen der Bildwiedergabe an das visuelle System<br />
** zur Nutzung optimaler Naturprinzipien für technische Lösungen<br />
** weil technische Systeme im allgemeinen auf dem inneren Modell des Menschen von der Welt beruhen und dieses Modell in hohem Maße durch den visuellen Kanal des Menschen beeinflusst ist<br />
** weil optoelektronische Sensoren, Bildverarbeitung und Bildanalyse wichtige Schnittstellen zwischen Mensch und Maschine darstellen<br />
**weil viele Objekteigenschaften durch visuelle Eindrücke beschrieben werden<br />
<br />
* menschliches Auge kann ca. 100 Graustufen / ca. 300 000 Farben unterscheiden<br />
<br />
* Drei grundsätzliche Anwendungen von Farbinformation:<br />
** Pseudokolorierung<br />
** Falschfarbendarstellung<br />
** Echtfarbdarstellung (True Color) <math>\rarr</math> hier Schwerpunkt<br />
<br />
== Farbtäuschung ==<br />
<br />
* Zuordnung zwischen Physik und Wahrnehmung nur eindeutig wenn bunte Dinge isoliert betrachtet werden<br />
* Werden bunte Objekte in bunte Umgebungen eingebettet/bewegt, dann können abweichende Farbwahrnehmungen auftreten, so genannte Farbtäuschungen<br />
* es existieren unterschiedliche Arten solcher Täuschungen:<br />
** ''Farbinduktion oder simultaner Farbkontrast'' (Farbe wird durch ihre Umgebung modifiziert)<br />
** ''Farbkonflikt'' (es konkurrieren verschiedene Sehinformationen miteinander)<br />
** ''Subjektive Farben'' (es werden bunte Farbtöne wahrgenommen, die nicht vorliegen)<br />
<br />
'''Simultaner Farbkontrast:'''<br />
* erstmals 1839 beschrieben<br />
* wo der Effekt entsteht (Auge, Cortex) ist unklar<br />
<br />
'''Farbinduktion:'''<br />
* bei kleinteiligen, sich wiederholenden Strukturen erfolgt Angleichung<br />
* kann zur Rauschunterdrückung oder zur Unterdrückung von Feintexturen zugunsten der Erkennung größerer Objekte wichtig sein<br />
<br />
'''Farbkonflikt:'''<br />
* Formen und Strukturen konkurrieren mit Farben ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf White'sche Illusion])<br />
<br />
'''Subjektive Farben:'''<br />
* durch Bewegung ist es möglich Farben zu erzeugen die ursprünglich nicht vorhanden waren ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf Drehwurm in Farbe])<br />
<br />
== Farbwahrnehmung beim Menschen ==<br />
<br />
[...]<br />
<br />
=== Rezeptive Wahrnehmung ===<br />
* 1807 stellte Young die Hypothese auf das Farbsehen auf drei Arten von Sinneszellen beruht (rout,grün,blau)<br />
* erst 1964 konnten dies bewiesen werden, durch die Messung der Absorptionsspektren<br />
*[[Datei:Pdt-kurven.svg]]<br />
<br />
=== Postrezeptive Wahrnehmung ===<br />
* Mit dem 3 Farbenmodell konnten einige psychologische Erscheinungen nicht erklärt werden<br />
** Es werden 4 Farben als besonderst "rein" empfunden (Rto, Geln,Grün, Blau)<br />
** Unbunte Farben werden werden als das fehlen von Farben wahrgenommen<br />
** Schwarz schein gleichberechtigt zu Weiß<br />
** keine wahrgenommene Farbe erscheint zugleich rötlich und grün<br />
* das führte zur Gegenfarbentheorie die anfangs nur Psychologisch begründet war 1958 aber physiologisch Nachgewiesen werden konnte<br />
** Rot - Grün<br />
** Gelb - Blau<br />
** Schwarz - Weiß<br />
* → CIELab-Farbraum<br />
<br />
=== Kortikale Kodierung ===<br />
* Weder die 3 Farbentheorie noch die Gegenfarbentheorie beschreiben die bewusste Wahrnehmung des Menschen<br />
* Deshalb erweitertes Modell<br />
** Farbton / Buntton beschreibt die als besonderst rein empfundenen Spektralfarben<br />
** Sättigung beschreibt wie stark eine Farbe verblasst ist<br />
** Helligkeit beschreibt, wie hell oder dunkel eine Farbe ist<br />
* Wo/Wie genau die neuronale Verarbeitung erfolgt, ist noch nicht sicher belegt<br />
<br />
== Die Ordnung in der Welt der Farben ==<br />
* Newton kannte die Wellenlänge noch nicht → er ordnete die Farben nach dem Regenbogen<br />
* Goethe verwendete das Gegenfarbenmodell<br />
* Munsell schlug 1905 ein Farbordnungssystem vor bei dem alle Abstände zwischen den Farben Empfindungsmäßig gleich sind<br />
** führt zu einem geometrisch nicht regelmäßigen Körper<br />
<br />
== Das Modell der Farbe ==<br />
* '''Definition'''<br />
** Farbe ist diejenige Gesichtsempfindung eines dem Auge strukturlos erscheinenden Teils eines Gesichtsfeldes durch die sich diser Teil bei einäugiger Betrachtung mit unbewegtem Auge von einem gleichzeitig gesehenen ebenfalls strukturlos angrenzendem Bezirk allein unterscheidet (unbunte Farben: Schwarz, Weiß und Graustufen, bunte Farben: Helligkeit; Buntheit setzt sich aus Buntton und Farbsättigung zusammen)<br />
** Farbe ist durch Helligkeit, Buntton, Sättigung eindeutig bestimmt → 3D Modell<br />
*** drei linear unabhängige Größen<br />
*** Additive Mischung zur Reproduktion von Farbe (aus Rot, Grün, Blau)<br />
*** drei linearunabhängige Größen spannen immer einen Raum auf → Rot,Grün und Blau werden die Achsen dieses Raumes<br />
<br />
=== Farbvalenz ===<br />
* Mit unserem Modell läßt sich jede Farbe als linearkombination unserer drei Basisvektoren aufschreiben<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
** <math> \vec F</math> ... Farbvalenz<br />
** <math> \vec r, \vec g, \vec b </math> ... die drei Basisvektoren die den Raum aufspannen (Rot, Grün und Blau)<br />
** <math> R,G,B, |\vec F| </math> ... die Farbwerte<br />
** <math> \vec r \cdot R, \vec g \cdot G, \vec b \cdot B </math> ... die drei Primärvalenzen<br />
* Ermittelt werden die Farbwerte mit Hilfe der Vergleichsmethode<br />
** Eine Person vergleicht ein Target mit einer Farbe die aus den drei Primärvalenzen gemischt wird<br />
** wenn die Empfindung der beiden Farben gleich ist, dann notieren wir die Werte<br />
* Innere Farbmischung<br />
** das Target wird mit weißen Licht beleuchtet und wir drehen nur an dem Farbmischgerät<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
* Äußere Farbmischung<br />
** Wir beleuchten das Target mit farbigen Lichte<br />
**<math> \vec F+ B \cdot \vec b = R \cdot \vec r + G \cdot \vec g \rightarrow \vec F = R \cdot \vec r + G \cdot \vec g - B \cdot \vec b</math><br />
<br />
=== Farbreizmetrik ===<br />
* Die Farbreizfunktion <math> \varphi_\lambda</math> beschreibt die spektrale Zusammensetzung der Farbempfindungen<br />
*# Selbstleuchtende Objekte<br />
*#* <math> S_\lambda (\lambda)</math> beschreibt die spektrale Verteilung der Quelle<br />
*#* Wahrnehmung: <math> \varphi_\lambda = S_\lambda</math><br />
*# Auflicht Vorlagen<br />
*#* <math>\beta_\lambda(\lambda)</math> beschreibt den spektralen Remisionsgrad der Vorlage<br />
*#* Wahrnehmung: Licht reflektiert von der Vorlage <math> \varphi_\lambda = S_\lambda \cdot \beta_\lambda</math><br />
*# Durchlichtvorlagen<br />
*#* <math>\tau_\lambda(\lambda)</math> spektraler Transmissionsgrad der Vorlage<br />
*#* Wahrnehmung von Licht welches die Vorlage durchdrungen hat <math>\varphi_\lambda= S_\lambda \cdot \tau_\lambda</math><br />
* Damit haben folgende Faktoren Auswirkung auf die Wahrgenommene Farbe<br />
*# Die Beleuchtung des Objektes (Spektrale Zusammensetzung des Lichtes der Lampe)<br />
*# Das Remmisionsverhalten der beleuchteten Oberfläche<br />
*# Die wellenlängenabhängige Empfindlichkeit der drei Zapfen des Auges<br />
* Es besteht die Möglichkeit die pdt Kurven direkt zur Beschreibung des Farbempfindens zu nutzen<br />
* Die Farbwerte könnte man dann wie folgt ermitteln: <math> \left(\begin{matrix}P\\D\\T\end{matrix}\right)=k\int_{380\mathit{nm}}^{780\mathit{nm}}\varphi (\lambda )\cdot \left(\begin{matrix}p(\lambda )\\d(\lambda )\\t(\lambda )\end{matrix}\right)d\lambda </math><br />
* Für die technische Darstellung von Farbe werden allerdings R,G,B werte benötigt<br />
* Die dafür notwendigen Spektralwertkurven können mit Hilfe der Vergleichsmethode ermittelt werden<br />
* Man erhält damit folgende Kurven<br />
[[Datei:SpektralwertfunktionenRGB.jpg]]<br />
* Mit der gleichen Formel wie bei der pdt Kurve lassen sich nun die R,G,B Werte rechnerisch ermitteln<br />
<br />
== Farbanalyse, Zusammenhang mit der Farbwidergabe ==<br />
* Das Kammera - Monitor System soll die Farbe exakt wiedergeben<br />
* Der Monitor verwendet EBU Phosphore für die Farbdarstellung<br />
** haben selbst Spektralwert kurven => keine Monochromatischen Lichter mehr<br />
* Die notwendigen spektralwertkurven die die Kamera realisieren muss um die Bilder auf dem Monitor exakt darzustellen lassen sich mit Hilfe der pdt Kurven herleiten (Über forderung der Gleicheit der Farben)<br />
* Sie besitzen stark negative Anteile => Auch die Filter der Kamera müssten negative Transsmissionsgrade besitzen<br />
** technisch ist das nicht möglich<br />
* es bleibt also nur die Möglichkeit die notwendigen Parameter zur Ansteuerung des Monitors aus positive one-peak Kurven zu berechnen<br />
<br />
== Subtraktive Farbmischung ==<br />
* Die Subtraktive Farbmischung lässt sich auf die Multiplikation der Transmissionsgrade zurückführen (ein Filter lässt 50% rotes licht durch, wenn man zwei dieser Filter hintereinander legt, dann geht nur noch 25% rotes Licht durch die Anordnung (0.5*0.5 = 0.25) )<br />
* wenn <math> \tau_0 </math> die Transmission eines Filters für die normierte Dicke 1 und die normiert Dichte 1 ist dann kann man<br />
** mit dem Lambertschen Absorbtionsgesetzt die Absortption von dickern/düneren Material berechnen <br> <math> \tau = [ \tau_0]^w </math><br />
*** w ... Dicke des Materials im Verhältnis zum norm Material<br />
** mit dem Beerschen Gesetz die Transmission von Meterial mit anderer Dichte berechnen <br><math> \tau = [ \tau_0]^c </math><br />
*** c... Das Verhältnis der neuen zur alten Dichte<br />
** kann man auch kombinieren zu (Lambert-Beersches Gesetz)<br />
** <math> \tau = [ \tau_0]^{c \cdot w} </math><br />
* Da sich die Transmission Multiplikativ zusammensetzt wird auch gerne mit dem logarithmus der Transmission gerechnet (optische Dichte)<br />
**<math> D = - lg \tau = lg \frac{1}{\tau}</math><br />
** Damit vereinfacht sich das Lambert-Beersche gesetz zu: <math> D = c \cdot w \cdot D_0</math><br />
* selbstverständlich sind die Transmission <math>\tau</math> und die optische Dichte D von der Wellenlänge abhänig ... zur Übersichtlichkeit wurde das in den Formeln nur weggelassen<br />
* Bei einem Papierbild kommt zu dem Filter noch die Reflexion an der Farboberfläche und an der Papieroberfläche<br />
** Beachte das Licht was an der erste Schicht wegreflektiert wird kann icht tiefer eindringen. Nur noch <math> (1-\beta)*S </math> dringt an Licht durch den ersten Filter!<br />
*** <math> \beta </math> ... Remmisionsgrad der ersten Farbe<br />
*** <math> S </math> ... Spektrale Verteilung der Lichtquelle<br />
<br />
= Farbmetrische Schnittstellen - Farbräume (GF a 49 - 55) =<br />
<br />
<pre><br />
Unterschiedliche bildgebende Systeme<br />
z.B. Farbkameras<br />
Farbscanner<br />
Spezialkameras<br />
</pre><br />
'''Widerspruch''' <math>\updownarrow</math> Farbmetrische Schnittstelle<br />
<pre><br />
Unterschiedliche Bildwiedergabesysteme<br />
"True-Color-Darstellung"<br />
- unterschiedliche Monitore, Beamer, Drucker etc.<br />
</pre><br />
<br />
== Leuchtdichte (Luminanz) ==<br />
<br />
* Luminanz Y ist die Strahlungsleistung, bewertet mit der spektralen Empfindlichkeitsfunktion des Auges für das Hellempfinden<br />
* Y ist Leistungsproportional, wenn Lichtzusammensetzung (Leistungsdichte <math>\Theta (\lambda))</math> konstant bleibt<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* Leuchtdichte berechnet sich nach dem ''Abneyschen Gesetz'':<br />
: <math> Y = L = k \cdot \underline L^T \cdot \underline F </math><br />
:* <math>\underline L^T - </math> Leuchtdichtebeiwert: gibt an wie groß der Beitrag jedes Farbwertes der Farbvalenz zum Helleindruck ist, abhängig vom gewählten Farbwiedergabesystem<br />
* Leuchtdichte L <math>\ne</math> Intensität I<br />
: <math> I = \frac 1 3 (R+G+B)</math><br />
<br />
* die perzeptuelle Antwort unseres Auges auf die Leuchtdichte wird Helligkeit (Lightness) genannt<br />
: <math><br />
L^{\star} = \begin{cases}<br />
116 \cdot \sqrt [3] {\frac Y {Y_n}} -16, & \text{wenn } \frac Y {Y_n} > 0{,}008856\\<br />
903{,}3 \cdot {\frac Y {Y_n}}, & \text{wenn } \frac Y {Y_n} \le 0{,}008856<br />
\end{cases}<br />
</math><br />
<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: Eine Quelle die nur 18% der Luminanz einer Referenz hat, erscheint uns immer noch halb so hell wie die Referenz </span><br />
<br />
== Gammakorrektur und Luma ==<br />
* '''Gammakorrektur:'''<br />
** Aufgrund der Ansteuerung von CRT Monitoren und der verwendeten Phosphore ergibt sich ungefähr eine quadratische Abhängigkeit der Luminanz vom Videosignal<br />
** Die Luminaz der drein einzelnen Farbkanäle muss den gleichen Verlauf aufweisen. Sie dürfen sich nur in ihren Maximalwerten unterscheiden!<br />
*** Sonst ist es nicht möglich die Helligkeit zu ändern und dabei die Farbe konstant zu halten<br />
** Die Gammakorrektur sorgt dafür das die Farbwiedergabe auf dem Monitor linear verläuft und nicht quadratisch<br />
*** Notwendig damit wir die gleich Wahrnehmung erzielen können als währe das Kamera-Monitor System nicht vorhanden<br />
<br />
*'''Luma:'''<br />
** Luma ist die gewichtete Summe der drei Gammakorregierten Farbwerte R',G',B'<br />
** Damit ist Luma nicht gleich Luminanz<br />
<br />
*'''Brightness'''<br />
** Brightness ist ein Begriff der beschreibt wie stark eine Fläche Licht emmitiert oder sie hell sie erscheint<br />
** Besitzt kein festes Maß und wird daher sehr frei verwendet -> HSL<br />
<br />
== Farbsysteme, Farbräume, reduzierte Farbräume ==<br />
* Die Intensität einer Farbe ist <math> I = \frac{R + G +B}{3} </math><br />
* Wählt man die Intensität konstant mit <math>I=\frac{1}{3}</math> so ergibt sich eine Ebene die den RGB-Farb Würfel Diagonal schneidet und durch die R,G,B Eckpunkte geht<br />
* Jede Farbkoordinate kann auf diese Ebene projeziert werden -> Ermöglicht die Nutzung dieser Ebene als einfache Farbtafel<br />
** Diese Ebene kann dann noch auf die 0RG- Fläche des RGB Würfels projeziert werden ohne das die Ordnung der Farben gestört werden würde -> Der Farbton einer Farbe lässt sich allein durch r und g beschreiben<br />
* in die rg-Ebene können nun alle in RGB - darstellbaren Farben und alles existierenden Farben eingetragen werden<br />
** Danach erkennt man das sich technisch mit dem RGB-System nur ein kleiner Teil der exisiterenden Farben realisieren lässt<br />
<br />
= Das Normvalenz- oder XYZ-System (GF a 76 - 86) =<br />
* Alle Farbwerte sollen durch positive Farbwerte darstellbar sein<br />
** Für Farbmessung von Interesse<br />
** Das XYZ- Dreieck muss den spektralen Kurvenzug voll umschließen<br />
* Eine weitere Forderung ist das die Leuchtdichte als unabhängige Komponete auftreten soll<br />
* Die Fläche des Dreiecks soll so klein wie möglich sein<br />
* Die dadurch berechnbaren Normalvalenzen sind physikalisch nicht erzeugbar -> Die Spektralwertkurven für das System müssen berechnet werden<br />
** Die Berechneten Spektralwertkurven sind stets nichtnegativ -> immer positive Transmissionsgrade und Sensorempfindlichkeiten<br />
[[Bild:NORMXYZ1.JPG]]<br />
* Mit dem XYZ-System kann man nun Farbdreiecke vergleichen und Bewerten<br />
** Abstände, Fehler und Systemeigenschaften sollten aber in einem empfindungsmäßig gleichabständigen Farbraum bewertet werden (u'v'w' und CIELab)<br />
* '''Optimalfarbkörper'''<br />
** Beschreibt die Grenze aller darstellbaren Körperfarben<br />
** Zur Erstellung schneidet man rechteckförmige Stückchen aus dem Spektrum von Idealweißem Licht aus<br />
<br />
== Das UVW-System ==<br />
* Informationsgehalt der Farbe für den Menschen hängt davon ab welche Farbunterschiede er wahrnehmen kann<br />
* Vor allem ist das interessant wenn Bildverarbeitungsprobleme auf der menschlichen Wahrnehmung formuliert sind<br />
* xy-Farbtafel hat starke Unterschiede zwischen örtlichen Abstenden und empfindungsmäßigen Abständen -> ungeeignet<br />
* erste Lösung<br />
** lineare Transformation<br />
** W' -> Helligkeit<br />
** U' -> Rot-Grün Bundheit<br />
** V' -> Gelb-Blau Bundheit<br />
** Ergebnis<br />
*** Wesentlich besseres Darstellung der Empfindung (Faktor 10 gegenüber dem XYZ-System)<br />
* verbesserte Lösung<br />
** verwenden einer nicht linearen Abbildung (Auge wird mit berücksichtigt)<br />
<br />
== L*a*b* oder CIELAB-Raum ==<br />
* Gegenfarbmodell<br />
* empfindungsmäßig gleichabständiger Raum<br />
* Grundsätzlich zur Angabe von Farbabweichungen verwendet<br />
** Geeignet zur Bewertung von Druckern, Monitoren und Abweichungen von Nachfärbungen<br />
* als Farbdifferenzmaß wird der euklidische Abstand benutzt (<1 nicht mehr Wahrnehmbar)<br />
<br />
== L*u*v* oder CIELUV ==<br />
* für additive Mischung vorgesehen<br />
* wie der CIELAB- Raum ein empfindungsmäßiger gleichabständiger Raum<br />
<br />
== YCbCr - Crominanzwertsystem ==<br />
* Entwickelt damit Farbfernsehen und S/W-Fernsehen Parallel betrieben werden konnten<br />
* Crominanzwerte<br />
** sind von Leuchtdichte befreite Werte<br />
** verschwinden für alle unbunten Farben<br />
** Cr= R-Y, Cg = G-Y, Cb = B-Y<br />
** Das System aus CrCbCg und Y ist überbestimmt => Es reicht die Übetragung von Cr , Cb und Y<br />
* Da das Auge auf Helligkeitsunterschiede empfindlicher reagiert als auf Farbunterschiede können die Crominanzwerte mit geringerer Auflösung übertragen werden<br />
<br />
== ΘSY - System ==<br />
* Der Bunttonwinkel Θ berechnet sich aus dem Verhältnis der Crominanzwerte Cb und Cr<br />
* Die Sättigung S ist der Betrag des Vektors CrCb<br />
<br />
== HSI - Farbraum ==<br />
* Intensität: <math> I= \frac{R+G+B}{3} </math><br />
* Sättigung: <math> S = 1 - 3 \cdot min (r,g,b) </math><br />
* Hue: <math> H= \left\{ \begin{matrix}\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B\le G \\ 2\pi -\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B>G \end{matrix}\right . </math><br />
* Raum ist nicht gleichmäßig gefüllt<br />
* bei kleinen Intensitäten I in Buntton und Sättigung Instabil<br />
* Es kann bei Farbmanipulationen dazu führen das es keine Entsprechungen im RGB gibt<br />
** Lösungen:<br />
*** Dachförmige Begrenzung des HSI Raums -> sehr Aufwendig<br />
*** Normieren der Intensitäten -> Bild kann ins dunkle verschoben werden<br />
*** Maximalwert setzen -> Falsche Farbwerte (werden ins unbunte verschoben)<br />
*** proportionales skalieren bis Farbe im RGB-Würfel liegt<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
<br />
== HSL - Farbraum ==<br />
* Gern für Computergrafik verwendet<br />
* einfache Beziehungen<br />
* Die Verwendeten Biegriffe H,S,L entsprechen nicht der Bedeutung in der Farblehre und Form des Raumes<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
* Buntton ist extrem instabil bei kleinen Sättigungen<br />
* Form des Raumes ist unpraktisch<br />
<br />
= Farbmessung (GF 1 - 11) =<br />
<br />
* Farbmessung = Ermittlung der drei zu einer Farbvalenz gehörigen Farbmaßzahlen<br />
* 3 Messmethoden: <br />
** Vergleichsmethode oder Gleichheitsverfahren<br />
** Spektralverfahren<br />
** Dreibereichsverfahren<br />
<br />
== Gleichheitsverfahren ==<br />
<br />
* Vergleiche:<br />
** Vorlage mit additivem Gemisch<br />
** Vorlage mit Farbmusterkarten (DIN-Karten)<br />
* unverzichtbar bei physiologischen Untersuchungen<br />
* aufwendig und bei kleinen Probandengruppen ungenau<br />
* d.h. für technische Messungen ohne Bedeutung<br />
<br />
'''Messbedingungen nach DIN:'''<br />
* helladaptiertes und blendfreies Sehen<br />
* unbunter Messraum<br />
* neutrale Gesichtsfeldumgebung mit gleicher oder etwas kleinerer Leuchtdichte als im Messfeld<br />
* gut ausgeruhtes und neutral gestimmtes Auge<br />
* farbnormalsichtiger Beobachter<br />
<br />
== Spektralverfahren ==<br />
<br />
* zu messende Farbvalenz = Summe spektraler Farbvalenzen<br />
* greift auf gemessene Normspektralwertkurven zurück<br />
<br />
# '''spektrale Messung zur Ermittlung der Farbreizfunktion <math>\varphi (\lambda) </math>'''<br />
#* Selbststrahler: direkte Messung der Strahlungsfunktion <math>\rightarrow \varphi (\lambda)= S (\lambda)</math><br />
#* remittierende Vorlage: Remissionsfunktion der Vorlage messen, d.h. Strahlungsfunktion S ist vorher zu bestimmen und aus <math>\varphi (\lambda)</math> heraus zu rechnen <math>\rightarrow \varphi (\lambda)= \beta (\lambda) \cdot S (\lambda)</math><br />
# '''farbvalenzmetrische Auswertung'''<br />
#* wenn <math>\beta (\lambda)</math> ermittelt wurde, kann jede beliebige (tabellierte) Lichtquelle <math>S^{\ast} (\lambda)</math>eingesetzt werden<br />
#: <math><br />
\begin{bmatrix}<br />
X\\Y\\Z<br />
\end{bmatrix}<br />
= k \cdot<br />
\begin{bmatrix}<br />
\int \bar{x} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{y} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{z} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda<br />
\end{bmatrix}<br />
</math><br />
#* Normierungskonstante k:<br />
#** Selbststrahler: nur Farbwertanteile gefragt, d.h. k ist beliebig<br />
#** Körperfarben: Y für mattweißen Körper = 100, d.h. <math>k=\frac{100}{\int {S(\lambda) \cdot \bar{y}(\lambda) d \lambda}}</math><br />
<br />
'''Messgeometrien:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bildergalerie (45°,8°,Transmission) </span><br />
<br />
* ''45°-Geometrie'': Beleuchtung unter 45° schließt Glanzeinfluss aus <math>\rightarrow</math> Sensor blickt senkrecht auf Probe<br />
* ''8°-Geometrie'': Beleuchtung diffus über Ulbricht-Kugel <math>\rightarrow</math> Sensor blickt unter 8° auf Probe; Messung mit/ohne Glanz möglich<br />
* ''Transmissionsgeometrie'': Probe wird durchleuchtet<br />
<br />
== Dreibereichsverfahren ==<br />
* die drei Farbwerte werden direkt photometrisch gemessen<br />
* Filter und spektrale Empfindlichkeite der Strahlungsempfänger müssen an die spektrale Bewertungsfunktion angepasst sein<br />
* '''Luther-Bedingung:''' <math> \tau_x(\lambda) = \frac{c_x \cdot x(\lambda)}{s_1(\lambda)}</math><br />
** <math> \tau_x(\lambda) </math> ... Filtertransmission<br />
** <math>s_1(\lambda)</math> ... Sensorempfindlichkeit (hier im ersten Kanal)<br />
** <math>c_x</math> ... Gerätekonstante<br />
** Für den Y und Z Kanal ist die Formel analog<br />
* Der notwendige Filter kann gut durch ein Set von Schmalbandigen Filtern realisiert werden<br />
<br />
== Spektralmaskenverfahren ==<br />
<br />
* spezielles Dreibereichsverfahren<br />
* Lichtzerlegung erfolgt mit einem Prisma<br />
* Das zerlegte Lich beleuchtet eine Maske (Papier, Plaste, Metal .... ne richtige echte Maske)<br />
* Messen der spektralen Verteilung (CCD-Zeile)<br />
* Ähnlich dem Spektralverfahren nur das das spektrum bereits im analogen entsprechend gewichtet wird<br />
<br />
== Metamerie ==<br />
* zwei Farbproben die bei einer bestimmten Beleuchtung gleich aussehen können bei einer anderen Beleuchtung ganz anderst aussehen<br />
* Der Metermarie-Index beschreibt diesen durch Beleuchtungswechsel entstehenden Farbwechsel<br />
* KEIN Maß für die Farbkonstantheit sondern für den Unterschied von zwei Proben<br />
* Berechnung erfolgt im L*a*b* Raum <br> <math> M_T = \sqrt {(L_{1T}-L_{2T}+L_{2B}-L_{1B})^2 +(a_{1T}-a_{2T}+a_{2B}-a_{1B})^2+(b_{1T}-b_{2T}+b_{2B}-b_{1B})^2 } </math><br />
** T ... Testlicht<br />
** B ... Bezugslicht<br />
** 1,2 ... Probennummern<br />
<br />
= Klassifikation von Messaufgaben (GF 82 - 86) =<br />
<br />
# Messung von objektiven Eigenschaften, die sich in der Veränderung spektraler Charakteristika niederschlagen<br />
#* vordergründig ist Zusammenhang zwischen Veränderungen in den physikalischen Eigenschaften von Interesse (z.B. Waferinspektion)<br />
#* Zusammenhang sollte eindeutig und von hinreichender Empfindlichkeit sein<br />
#* Wahrnehmung unterschiedlicher Farben eher Nebeneffekt<br />
# Überwachung der Stabilität von farblichen Erscheinungen<br />
#* ist bei einer oder mehreren Beleuchtungen zu überwachen<br />
#* absolute Farbmessung nicht nötig; "Anlernen" auf Farben genügt<br />
#* Abstände im Farbempfinden müssen sich in gleicher Weise in Veränderungen der Sensorsignale wiederspiegeln<br />
# absolute Farbmessung<br />
#* d.h. Ermittlung der korrekten Farbvalenz unter beliebigen Messbedingungen<br />
#* Spektralwertkurven müssen realisiert werden<br />
# Messung des spektralen Remissions- und/oder Transmissionsverhaltens von Materialien<br />
#* ausschließlich spektrale Messverfahren<br />
#* Messung der Strahlungsfunktion und der remittierten Leistungsdichte<br />
#* Berechnung der Farbvalenz bei beliebiger Beleuchtung und des Metamerie-Index<br />
<br />
'''steigende Ansprüche mit steigender Nummerierung'''<br />
<br />
= Einfache Farbkalibrierung (GF 16 - 41) =<br />
* Farben sollen möglichst exakt Wiedergegeben werden<br />
<br />
== Ausgleich von Beleuchtungseinflüssen ==<br />
* Körperfarben werden durch ihre Remmision bestimmt <math> \beta </math><br />
* Bei unterschiedlicher Beleuchtung sehen Farben unterschiedlich aus aber das Auge kann sich an die Beleuchtung adaptieren<br />
** Funktioniert bei Fotos aber nicht -> Beleuchtungsausgleich ist wichtig<br />
** Bei Farbvergleich noch viel mehr<br />
** Wird realisiert durch Weißabgleich (auf integraler Farbebene nicht möglich )<br />
* Direkte Vermessung der spektralen Eingenschaften der Kamera nicht möglich (Da Werte in Kamera bereits verrechnet werden um z.B. die negativen Anteile der Spektralkurven zu realisieren)<br />
** sehr Aufwendig (Kamera auseinanderbasteln um an die echten werte zu kommen + das durchgehen durch das Spektrum in kleinen Schritten)<br />
* Daher Verwendung von Testfarben<br />
** Führt auf Lösung eines linearen Gleichungssystem<br />
** Für menschliches empfinden -> Optimieren im CIELAB-Raum<br />
* Vorsicht bei nichtlinearen Funktionen zur Farbkalibrierung -> Kann bei zu wenig Testfarben zu total falschen Ergebnissen führen !!<br />
<br />
= Color Management (F CM 1 - 20) =<br />
* verschiedene Geräte können verschiedenen Farben darstellen<br />
* verschiedene Geräte verwenden andere Grundfarben zum mischen<br />
* Mit Hilfe von Profilen (Tabellierung der Farbwerteumrechnungen) wird eine Konvertierung der Farben vom Geräteraum in den CIELab Raum bzw umgekehrt durchgeführt<br />
* in den Profilen wird auch vermerkt welche Farben darstellbar sind und welche nicht<br />
* Somit kann man eine "Druckvorschau" auch auf einem Monitor erreichen (natürlich nur für Farben die auf beiden Geräten dargestellt werden können)<br />
** Jedes Mapping der Farben (Gamut-Mapping stellt somit einen Kompromiss dar)<br />
**# Perceptual (Die Farbbeziehungen untereinander werden erhalten) Komprimierung des Gamuts bis er in den zur Darstellung verwendeten passt<br />
**# Colometrisch -> Exakte Reproduktion aller in beiden Gamuts darstellbaren Farben<br />
**## relativ -> weiß wird auf weiß abgebildet und alle anderen Farben relativ dazu<br />
**## absoult farbmetrisch<br />
**# Saturation, alle Farben außerhalb des Zielgamuts werden zugunsten der Sättiung verändert<br />
* Kalibrierung -> Versetzen des Gerätes in einen definierten, reproduzierbaren Zustand<br />
* Charakterisierung -> Modellierung eines Gerätes welches sich ein einem stabilen definierten Zustand befindet<br />
<br />
= Kameras (GF_Ka 1 - 12) =<br />
<br />
'''Einsatzfelder:'''<br />
* ortsaufgelöste Messung von Farbe<br />
* Aufnahme und Wiedergabe von True-Color Bildern<br />
* Aufnahme farbiger oder mehrkanaliger Bilder für die Verarbeitung/Analyse (Qualitätssicherung)<br />
* Photogrammetrische Anwendungen (Lösung des Korrespondenzproblems)<br />
* Radiometrische Anwendungen (Messen im Spektralbereich)<br />
<br />
'''Dreibereichsmessung:'''<br />
* setzt die Trennung von drei sich überlappenden Spektralbereichen voraus, die dann wellenlängenabhängig zu bewerten und zu integrieren sind<br />
<br />
== Dreichip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* optische Kanaltrennung und Bewertung<br />
* beste Bildqualität, da hohe Auflösung in allen drei Kanälen<br />
* keinen örtlichen Versatz der Pixel in den drei Farbauszügen<br />
* Filter einfacher und präziser zu realisieren<br />
* befinden sich z.B. als dichroitische Spiegel auf den Strahteilerprismen<br />
<br />
<span style="color:#ee0000;"> \\ Hot-Mirror-, Cold-Mirror-Korrektur????</span><br />
<br />
== Einchip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: doppelte Anzahl grüner Pixel wegen Schärfe, MTF des Auges </span><br />
<br />
* örtliche Kanaltrennung und Bewertung<br />
* Streifen- oder Mosaikfilterstrukturen auf den einzelnen Pixeln zur örtlichen Signaltrennung<br />
* 3 oder 4 unterschiedliche spektrale Auszuüge zur Erzeugung der Farbinformation<br />
* Matrix selbst kann Interline- oder Frame-Transfer-Matrix sein<br />
* kostengünstiger und kleiner als Dreichip-Kameras<br />
* Probleme:<br />
** Farbvalenzen aus örtlich versetzten Auszügen (z.B. Farbsäume an Kanten)<br />
** nicht korrigierbare Fehler aus Nichtlinearitäten und Dunkelsignalen bei der Bildung von Mischsignalen<br />
<br />
'''generelle Anforderungen an die Signalverarbeitung:'''<br />
<br />
* primäre Kamerasignale stellen keine farbmetrische Schnittstelle zur Verfügung, d.h. alle Bewertungsfunktionen sind nicht-negativ (Spektralwertkurven fordern aber negative Wichtungen)<br />
* je nach realisierten Filtern und Genauigkeitsansprüchen <math>\rightarrow</math> lineare Matrizierung (meist Kameraintern) oder komplexere Approximation<br />
* bei hohen Genauigkeitsansprüchen <math>\rightarrow</math> Umgehung der Kamerainternen Matrizierung, weil Verstärkungsfaktoren, Toleranzen, Temperaturdrift, Langzeitstabilität etc. nicht bekannt sind<br />
* insgesamt geringe Nichtlinearitäten der CCD's können in den Ansteuerbereichen der einzelnen Kanäle zu wesentlichen Fehlern führen:<br />
** Farbvalenz ändert sich kontinuirlich mit der Shutterzeit<br />
** Pixelweise DSNU- (Dunkelsignalungleichförmigkeit) und PRNU- (Hellsignalungleichförmigkeit) Korrektur vor Erzeugung der Farbvalenz erforderlich, da sich Festmusterrauschen nicht nur auf Intensität sondern auch auf Farbart auswirkt<br />
** Dunkelsignal verdoppelt sich alle 7K, Gleichanteil wird aber geklemmt<br />
** Lichtquellentyp und Langzeitverhalten wirken sich nicht nur Intensität sondern auch auf Farbtemperatur aus<br />
<br />
'''4 spektrale Bereiche:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* vorteilhaft zur Erzeugung von Farbdifferenzsignalen für die TV-Kompatibilität<br />
* im Field-Integration-Mode werden Mischsignale gebildet, die die erforderliche Signalkorrektur für hohe Ansprüche behindern<br />
* Nichtlinearität der Ausgangsverstärker wirkt sich auf Korrektur der primären Mischsignale aus<br />
<br />
== Sequentielle Einchip-Kamera ==<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* zeitliche Kanaltrennung und Bewertung<br />
* relativ genaue Approximation der Spektralwertkurven möglich<br />
<br />
== Elektrisch steuerbare Filter ==<br />
<br />
* über die Wellenlängenabhängigkeit der Eindringtiefe der Photonen und die Steuerbarkeit der Tiefe der Potentialmulden der sensoren lassen sich steuerbare spektrale Empfindlichkeiten erzeugen<br />
<br />
= Verarbeitung von Farbbildern (1 - 31) =<br />
* Das unabhängige verarbeiten der Farbkanäle eines Farbbildes führt zu Nebeneffekten wie Farbsäume<br />
* Die höhere Vielfalt des mehrdimensionalen Raumes von Farbbildern kann Vorteilhaft genutzt werden für Pixelklassifikation, Segmentierung <br />
* Abstände, Mittlere Werte und örtliche Veränderungen sind in empfindungsmäßig gleichabständigen Räumen zu definieren und zu bewerden<br />
<br />
== Histogramme und Statistiken für Farbbilder ==<br />
* Farbbilder liefern dreidimensionale Häufigkeitsverteilungen im Farbraum → können als Approximation der entsprechenden 3D-Dichten verwendet werden<br />
* statistische Zusammenhänge zwischen den Kanälen werden in mehrdimensionalen Dichten betrachtet<br />
** Für Handauswertung meist nur 2D-Dichten, wegen der Übersicht<br />
** Für maschinelle Auswertung können diese dichten auch dreidimensional werden<br />
** für die parametrische Darstellung der Cluster werden meist multivariante Gaußverteilungen eingesetzt<br />
*** Einr Gaußverteilung ist für die Beschreibung eines Bildes mit mehreren Objekten nicht geeignet<br />
*** Die Kovarianzmatrix einer solchen "Approximation" kann aber gut zur Einschätzung der Streuung und der Mittelwerte in dem Bild eingesetzt werden<br />
<br />
=== Histogramm - Modifikationen ===<br />
* Contrast Streching, Polygonal Image Scaling, Histogram-Equalisation Siehe [[Grundlagen der Bildverarbeitung und Mustererkennung#homogene Punktoperationen|Grundlagen der Bildverarbeitung]]<br />
* Manipulation kann in verschiedenen Farbräumen ausgeführt werden (RGB,HSI,...)<br />
** In nicht empfindungsmäßig gleichabständigen Räumen muss die Transformation nicht unbedingt zum Ziel führen<br />
==== Manipulation im Farbraum RGB ====<br />
* ist der Farbraum in dem die Daten häufig vorliegen<br />
* Wirkung kann auf Grund der starken korrelation der RGB Werte bei geringen Sättigungen ausbleiben<br />
* Farbverfälschung wenn einzelne Kompontenen unabhänig von einander behandelt werden<br />
* hohes apriori-Wissen notwendig<br />
* wenn Falschfarbdarstellung gewünscht ist kann dies das mittel der Wahl sein<br />
<br />
==== Manipulationen im Farbraum HSI ====<br />
* unproblematisch in Bezug auf Farbverfälschungen<br />
* Zielsetzungen können sich einfacher beschreiben lassen (ähnelt der Beschreibung von Farbe durch den Menschen)<br />
* unabhängige Komponente (Intensität)<br />
* Kontrastverbesserung durch Sättigungsausgleich ohne Farbveränderung möglich<br />
* Stabilitätsprobleme nahe den unbunten Farben<br />
# '''Ausgleich des Intensitätshistogramms'''<br />
#* Werte möglich die keine entsprechung mehr im RGB haben → müssen geeignet herruntergerechnet werden<br />
#* bei kleinen Intensitäten sind die Bunttöne instabil → ausschließen von Veränderungen<br />
# '''Sättigungsausgleich'''<br />
#* Modifikation der Sättigung unter Beibehaltung des Bunttones<br />
#* Bei kleinen Sättigungen und kleinen Intensitäten ist der Buntton instabil → Ausschließen<br />
#* Histogramm über alle Bunttöne ist häufig verschmiert → besser Histogramm über Buntton Segmente<br />
# '''Bunttonausgleich'''<br />
#* Ziel sind Farbfalschbilder um Objekte besser unterscheiden zu können<br />
#* bei zu großen Buntton Änderungen wird die Interpretierbarkeit nur bei homogenen Flächen verbessert, meist wird sie eher verschlechtert<br />
#* Unsicherheit des Bunttons → bei geringen Sättigungen und Intensitäten ist der Buntton auszuschließen<br />
<br />
== segmentgesteuerte Farbvalenztransformationen ==<br />
* Globale Statistiken werden häufig durch nicht interressante Objekte dominiert<br />
* Ausweg ist das Betrachten von Ausschnitten und anwenden der Transformationen auf die Ausschnitte<br />
* erfordert zu erst das Segmentieren des Bildes<br />
<br />
= Referenzfreie Farbadaption auf Basis des 3D-Histogramms (HuS 32 - 39 ) =<br />
* unter bestimmten umständen kann auf eine Kalibrierung der Kamera mittels Referenzfarben verzichtet werden<br />
* Zur Korrektur soll die parametrische Approximation der 3D-Histogramme durch multivariante Gaußverteilungen genutzt werden<br />
== Vorraussetzungen für die Anwendbarkeit ==<br />
* Strukturierte Szene mit mehreren ntürlichen Objekten, die gleichmäßig über den Bunttonwinkel verteilt sind und durchschnittlichen Sättigungsgrad aufweisen<br />
* Langgestreckter SW-Prozess im Vergleich zum Rot-Grün und Blau-Gelb Prozess<br />
<br />
== Vorgehensweise ==<br />
* Korregieren von "vermutlichen" Abweichungen des Bildes in der Unbuntheitsachse<br />
* Dazu Ermitteln der Hauptachsen mit PCA<br />
* Drehen der Hauptachse in den SW-Prozess<br />
* Rücktransformation und Darstellung<br />
<br />
= Histogrammbasiertes Farbmatching(1 - 15) =<br />
* Histogramme sind im 2D Bild invariant gegenüber Rotation, Translation und Maßstab (wenn die Angaben relativ erfolgen !)<br />
* Histogramme sind auch relativ stabil gegenüber moderaten Verdeckungen und 3D-Rotation<br />
* Grobe Quantisierung der Histogramme um Fehlertoleranz zu erhöhen<br />
* Damit können Histogramme zur Objekterkennung eingesetzt werden → Bezeichnet als Color Indexing<br />
<br />
== uniformes Binning ==<br />
* einteilen der Farben in ein gleichverteiltes Histogramm<br />
* Suche in einem Bild den Ausschnitt welcher eine minimale Distanz zum Referenzbild hat<br />
* Als Abstandsmaß verwendet werden die Histogramme genutzt<br />
** Summe der Quadratischen Differenzen (Histogramme als Vektoren betrachtet und dann den euklidischen Abstand berechnet ohne Wurzel)<br />
** Earth Movers Distance (Berechnen was sich wohinverteilt haben könnte ... erfordert die Lösung des Transportproblems)<br />
* einfach aber die Bins ändern sich Sprunghaft, vor allem dann wenn Farben knapp an den willkürlichen Bingrenzen liegen<br />
<br />
== Unscharfe Chroma-Orts-Histogramme ==<br />
* Nachteile des uniformen Binning sollen überwunden werden<br />
* Alle Pixel bekommen eine unscharfe Klassenzugehörigkeit (Binnzugehörigkeit) je nach Abstand zum entsprechenden Binnmittelpunkt (wie bei [[Softcomputing|Fuzzy-C-Means]])<br />
** Ein Parameter ermöglicht dabei die Verunschärfung einzustellen (von total unscharf bis zum festen Binning)<br />
* Auch der absolute Ort der Segmente (aus denen die Histogramme erstellt werden) soll mit verwendet werden<br />
** Dazu wird das Bild in entsprechende Bereiche geteilt (8x8,16x16,...)<br />
** Alle Blöcke werden durchnnummeriert<br />
** Auch hier kommt es zu harten Umbrüchen wenn Pixel knapp an den Grenzen liegen → auch hier verunschärfen<br />
** Welche Indizees haben die Nachbarn? (Nachbarschaft in den Indizees der Blöcke heißt nicht gleich 2D-Nachbarschaft)<br />
<br />
== Cluster mittels Graphenansatz ==<br />
* Ziel ist es:<br />
** Sprunghafte Änderung der Binns zu verhindern<br />
** wenige Merkmale zu verwenden<br />
** Eng beieinander liegende Maxima trotzdem unterscheiden zu können<br />
* Verwendete Bilddaten:<br />
** Farbwinkelhistogramm, wenn Sättigung der Farben ausreichend ist<br />
** Intensitätsdiagramm, wenn Sättigung der Farben zu gering wird<br />
* Vorgehen:<br />
** Jeder Wert im Histogramm zeigt auf den Größten in seiner Nachbarschaft<br />
** Das Maximum zeigt auf sich selbst → Wird Merkmal<br />
** Weiteres Merkmal ist die Fläche die zum Maximum gehört (Nachbarn die direkt bzw. indirekt auf das entsprechende Maximum zeigen)<br />
* Match:<br />
** Finde ein Tupelpaar (Maxima in Referenzhistogram und Suchhistogram mit dem geringsten Abstand)<br />
** Ziehe gemeinsame Fläche von jedem Tupel des Paares ab<br />
** summiere gemeinsame Fläche (?)<br />
** Wiederhole bis sich keine Tupelpaare mehr bilden lassen<br />
** beziehe die laufende Summe auf das Maximum der Summe der ursprünglichen Flächen<br />
<br />
= Störunterdrückung (SU 1 - 16) =<br />
* Für nachfolgende Verarbeitungsschritte ist die Störunterdrückung sehr wichtig<br />
* Verschiedene verfahren der Rauschunterdrückung sind in [[Grundlagen der Bildverarbeitung und Mustererkennung#Lokale Operatoren zur Bildverbesserung (LOa 1 - 44) |BV]] eingeführt worden<br />
<br />
== Störunterdrückung durch Faltungsfilter ==<br />
* Anwendung wird einfach vektoriell durchgeführt (als würde man drei unabhängige Bilder gleichzeitig Filtern wollen)<br />
* es entstehen neue Farbtöne an den Übergängen zwischen Farben<br />
* im HSI Farbraum ist eine getrennte Betrachtung der Farbe und der Sättigung/Intensität möglich<br />
* Buntton ist zyklisch → muss bei der Mittelung beachtet werden<br />
* in der Farbe kann stärker gemittelt werden als in der Helligkeit (Auge nimmt Farbveränderungen schlechter wahr)<br />
* Komplexe Zahlen bieten sich hier als Rechenmittel an<br />
<br />
== adaptive gewichtete Mittelung ==<br />
* detailerhaltende Fähigkeiten von Filtern wegen der Farbsäume besonders von Interesse<br />
* Abstände verkomplizieren sich im Vergleich zu Grauwertbildern (Vektorabstandsmaße, Winkeldifferenzen,...) <br />
* Vorgehen nach dem Berechnen des Abstandes dann wieder Analog zur Grauwertfilterung<br />
<br />
== Medianfilterung ==<br />
* Problem bei der Übertragung des Rangordnungsgedankens auf Vektoren<br />
** Komponentenweises Vorgehen ist nicht geeignet (absolute Farbverfälschungen möglich)<br />
** Suche des besten Vertreters des SETS (wenn der verwendete Media im SET ist werden keine zu falschen Farben gewählt/gesetzt)<br />
*** kleinste Abstandssumme zu allen anderen Pixeln<br />
<br />
== Kombination von Averaging und Medianfilterung ==<br />
* Medianfilter ist gut für Impulsrauschen, schlecht bei Gauß hier ist Average gut<br />
* Bei den Filtern gibt es keinen unterschied zu den Grauwertbildern (unterschied besteht nur in der Realisierung der verwendeten Media/Average Filter nicht in ihrere Kombination)<br />
<br />
== Vektor-Richtungs-Filter ==<br />
* '''Basic Vecotr Directional Filter'''<br />
** Winkel zwischen Farbvalenzen als Distanzmaß<br />
** Ergebnis ist die Farbvalenz mit der kleinsten Winkeldifferenzsumme zu allen Valenzen des Fensters<br />
** Achromatische Rauschkomponenten werden nicht beseitigt<br />
* '''Generalized Vector Directional Filter '''<br />
** Suche nach den besten Vektoren aus Sicht der Richtung<br />
** Medianfilterung der Beträge der Vektoren<br />
* '''Directional Distance Filter'''<br />
** Vermeiden der Ineffizenz des GVDF Filters durch ein gemischtes Distanzmaß (Betrag und Winkel gleichzeitig)<br />
<br />
= Kantendetektion in Farbbildern (1 - 21) =<br />
* Wichtig für Segmentierung, Bildanalyse und Bildverstehen<br />
* [[Grundlagen der Bildverarbeitung und Mustererkennung#Kantendetektion (LK 1 - 38)| Kantenfilter]] bereits aus BV bekannt<br />
# '''Vektrogradient'''<br />
#* Berechnen der Jacobi-Matrix<br />
#* Wurzel aus dem größten Eigenwert ist der Vektorgradient<br />
#* Extrem Rechenaufwendig<br />
# '''Mittelwert der Richtungsableitungen'''<br />
#* Entspricht dem Gradienten im Intensitätsbild<br />
#* Zwei engegengesetzte Gradienten in unterschiedlichen Farben können sich gegenseitig aufheben → der Gradient der dritten Farbe dominiert egal wie klein er ist<br />
# '''Maximaler Gradient'''<br />
#* Suche nach dem Gradienten mit dem größten Betrag<br />
#* Korrelation der einzelnen Gradienten ist nicht von Bedeutung<br />
<br />
= Farbpixelklassifikation (Farbpixelklassifikation 1 - 21) =<br />
* Die Farbvalenzen bilden die Merkmale der Pixel<br />
* Anzustrebende Eigenschaften<br />
** Gute Beschreibung der Klassencluster und gute Trenneigenschaften<br />
** Einfache Belehrbarkeit (Aus Beispielen oder Expertenwissen)<br />
** Echtzeitfähigkeit<br />
** möglichst frühe Stufe der Verarbeitungskette ("Anspruchslosigkeit an das Bild")<br />
** Nutzen von Klassenzugehörigkeitsmaßen<br />
<br />
== optimaler Klassifikator ==<br />
* basiert auf dem Bayes-Theorem<br />
* findet die optimale Klassenentscheidung<br />
* Jeder Datenpunkt wird in die Klasse eingeordnet zur der er am Wahrscheinlichsten gehöhrt und bei der er die kleinsten Kosten für die anderen Klassen verursacht<br />
** Benötigt eine Risikofunktion die Angibt wie groß die Kosten bei Fehlklassifikation zwischen zwei Klassen sind<br />
*** Meist unbekannt und deswegen wird davon ausgegangen das die Kosten für jede Fehlklassifizierung gleich sind<br />
*** Kosten können durchaus auch bei richtiger Klassifikation definiert werden<br />
** Benötigt die Wahrscheinlichkeitsverteilung der Klassen im Raum (Meist unbekannt → Problem)<br />
*** können beliebig sein werden aber meist durch Gaußfunktionen approximiert<br />
*** in der Lernphase werden die Parameter dieser Verteilung geschätzt<br />
* Da Wahrscheinlichkeitsverteilung meist unbekannt ist, wird der Klassifikator ehr genutzt um einen anderen Klassifikator zu bewerten, wenn man eine bestimmt Wahrscheinlichkeitsverteilung festlegt (wie optimal ist der andere Klassifiaktor)<br />
<br />
== Maximum-Likliehood-Klassifikator ==<br />
* im Ansatz wie optimaler Klassifikator<br />
* setzten der Risikofunktion für alle Fehlklassifikationen auf einen konstanten Wert<br />
* verwenden von multivarianten Gaußdichten zur Beschreibung der Klassen<br />
* Entscheidung wird nur noch nach der a posteriori Wahrscheinlichkeit und der Klassen Verteilung gefällt<br />
<br />
== Malanobis-Abstandsklassifiaktor ==<br />
* schränkt den optimalen Klassifikator noch weiter ein im vergleich zum MLK Klassifikator<br />
* Kostenfunktion für Fehlklassifikation ist konstant für alle Fehlklassifikationen<br />
* Die a posteriorie Wahrscheinlichkeit für das auftreten der Klassen sein für alle Klassen gleich<br />
* Die Kovarianzmatrizen der Gaußverteilung der Klassen sind ähnlich<br />
* Damit ist die zuordnung zu den Klassen nur noch vom Abstand zu den Klassenzentren bestimmt<br />
** Abstandsmaß ist die Mahalanobis-Distanz<br />
<br />
== Gaußklassifikator und Kernel-Densitiy-Klassifikator ==<br />
* schränken noch weiter ein<br />
# '''Gaußklassifikator'''<br />
#* keine Kovarianzen mehr in der klassen Verteilung → Kugelförmige Klassenverteilungen<br />
# '''Kernel-Density-Klassifikator'''<br />
#* Spezialfall von Gauß-Mischverteilungen<br />
#* [... was genau der Macht frage ich in der Konsultation mal nach ... im Skript steht nix brauchbares]<br />
<br />
== LUT-Klassifikator ==<br />
* direktes Verwenden der Stichprobenhistogramme<br />
* erforder Closing im Merkmalsraum da nicht alles durch die Stichproben abgedeckt werden wird<br />
<br />
= Clusterverfahren (Farbpixelklassifikation 19 - 29) =<br />
* Ziel ist es komplexe Klassenbeschreibungen durch mehrere parametrische Einzelcluster zu approximieren<br />
* Beliebig komplexe Klassenformen lassen sich so Speichereffizient beschreiben<br />
* trotz Komplexer Beschreibung bleibt eine weiche Klassengrenze möglich<br />
<br />
== Erzeugen der Cluster ==<br />
=== Radiusrestriktionsmethode ===<br />
* keine Startpartition erforderlich<br />
* indirekte Optimierung: Zielfunktion dient nur der Bewertung der fertigen Partition<br />
* Ablauf:<br />
*# Erstes Element initialisiert das erste Cluster<br />
*# Alle Elemente werden einem Cluster zugeordnert wenn der Abstand zum Clusterzentrum unterhalb eines bestimmten Wertes liegt<br />
*# Für alle Elemente die damit ausserhalb der Cluster liegen wird ein neuer Cluster angelegt<br />
*# Wichtig ist eine gute Radiusschätzung der Cluster (Varianz der Stichprobe durch Anzahl der gewünschten Cluster)<br />
*# als Gütefunktion nutzt man die Quadratische Abweichung von den Clusterzentren<br />
<br />
=== Minimaldistanzmethode ===<br />
# Ausgangspunkt ist eine nur die Radiusrestriktionsmethode erstellte Partition<br />
# Alle Klassen Mittelpunkte werden neu Berechnet<br />
# Berechnen einer neuen Minimaldistanzpartiton anhand einer gewählten Metrik<br />
# Ein Abbruchkriterium entscheidt über das weitere vorgehen<br />
#* Kriterium für Partition ist besser geworden → mache Weiter<br />
#* Anzahl der Interationschritte überschritten → Abbruch<br />
#* Anzahl der Interationschritte noch nicht überschritten && Kriterium für Partition ist gleich geblieben → mache weiter<br />
#* Kriterium für Partition ist schlechter geworden → breche ab<br />
<br />
=== k-Means-Austauschverfahren ===<br />
# Ausgangspunkt ist eine Startpartition<br />
# Merkmalsvektoren umgruppieren wenn die distanz zu einem anderen Klassenzentrum kleiner ist als zum aktuellen<br />
# Neu berechnen der Klassenmetriken<br />
# Abbruch wenn anzahl der Interartionsschritte überschritten ist oder keine Umgrupierung mehr erfolgt<br />
* Meist eingesetzt wird die Mahalanobis-Distanz → Hypereliptische Cluster die sich wunderbar eignen langgestreckte Verteilungen zu approximieren<br />
= Trennfunktionsklassifikatoren (Farbpixelklassifikation 30 -39) =<br />
= Neuronale Klassifikatoren (Farbpixelklassifikation 40- 45) =<br />
= Segmentierung (Seg 1 - 8) =<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Grundlagen_der_Farbbildverarbeitung&diff=6993Grundlagen der Farbbildverarbeitung2009-03-17T10:51:13Z<p>DarkGhost: /* Clusterverfahren (Farbpixelklassifikation 19 - 45) */</p>
<hr />
<div>Link zum [http://www.zbs-ilmenau.de/intern/vip-toolkit/index.php Vip toolkit]<br />
= Einführung (GF_a 8 - 47) =<br />
<br />
== Geschichtliches zur Farbe ==<br />
<br />
=== Newton ===<br />
<br />
* 1672: New Theory about Light and Colours<br />
** Sonnenlicht = Mischung einzelner Farben<br />
** Spektralfarben sind objektive Eigenschaft des Lichtes<br />
<br />
[...]<br />
<br />
=== Goethe ===<br />
<br />
[...]<br />
<br />
== Begriff der Farbe ==<br />
<br />
* '''Farbe im engeren Sinn, stellt eine spezielle menschliche Sinneswahrnehmung dar'''<br />
* <math>\Phi_i = \int_{\Delta \lambda_i} \varphi_{\lambda} (\lambda) d \lambda</math><br />
* Leistungsdichte <math>\phi (\lambda)</math> stellt dagegen den Farbreiz dar, der die Farbempfindung hervorruft<br />
* Vektoren <math>\underline \Phi</math> sind je nach Dimension mehr oder minder genaue Approximationen des Farbreizes<br />
<br />
* Orientierung am menschlichen visuellen System und die Betrachtung psychologischer und physiologischer Grundlagen sind von Interesse:<br />
** zur richtigen Bewertung der Schwierigkeiten und Herausforderungen bei der Schaffung technischer Lösungen<br />
** zur Anpassung technischer Lösungen der Bildwiedergabe an das visuelle System<br />
** zur Nutzung optimaler Naturprinzipien für technische Lösungen<br />
** weil technische Systeme im allgemeinen auf dem inneren Modell des Menschen von der Welt beruhen und dieses Modell in hohem Maße durch den visuellen Kanal des Menschen beeinflusst ist<br />
** weil optoelektronische Sensoren, Bildverarbeitung und Bildanalyse wichtige Schnittstellen zwischen Mensch und Maschine darstellen<br />
**weil viele Objekteigenschaften durch visuelle Eindrücke beschrieben werden<br />
<br />
* menschliches Auge kann ca. 100 Graustufen / ca. 300 000 Farben unterscheiden<br />
<br />
* Drei grundsätzliche Anwendungen von Farbinformation:<br />
** Pseudokolorierung<br />
** Falschfarbendarstellung<br />
** Echtfarbdarstellung (True Color) <math>\rarr</math> hier Schwerpunkt<br />
<br />
== Farbtäuschung ==<br />
<br />
* Zuordnung zwischen Physik und Wahrnehmung nur eindeutig wenn bunte Dinge isoliert betrachtet werden<br />
* Werden bunte Objekte in bunte Umgebungen eingebettet/bewegt, dann können abweichende Farbwahrnehmungen auftreten, so genannte Farbtäuschungen<br />
* es existieren unterschiedliche Arten solcher Täuschungen:<br />
** ''Farbinduktion oder simultaner Farbkontrast'' (Farbe wird durch ihre Umgebung modifiziert)<br />
** ''Farbkonflikt'' (es konkurrieren verschiedene Sehinformationen miteinander)<br />
** ''Subjektive Farben'' (es werden bunte Farbtöne wahrgenommen, die nicht vorliegen)<br />
<br />
'''Simultaner Farbkontrast:'''<br />
* erstmals 1839 beschrieben<br />
* wo der Effekt entsteht (Auge, Cortex) ist unklar<br />
<br />
'''Farbinduktion:'''<br />
* bei kleinteiligen, sich wiederholenden Strukturen erfolgt Angleichung<br />
* kann zur Rauschunterdrückung oder zur Unterdrückung von Feintexturen zugunsten der Erkennung größerer Objekte wichtig sein<br />
<br />
'''Farbkonflikt:'''<br />
* Formen und Strukturen konkurrieren mit Farben ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf White'sche Illusion])<br />
<br />
'''Subjektive Farben:'''<br />
* durch Bewegung ist es möglich Farben zu erzeugen die ursprünglich nicht vorhanden waren ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf Drehwurm in Farbe])<br />
<br />
== Farbwahrnehmung beim Menschen ==<br />
<br />
[...]<br />
<br />
=== Rezeptive Wahrnehmung ===<br />
* 1807 stellte Young die Hypothese auf das Farbsehen auf drei Arten von Sinneszellen beruht (rout,grün,blau)<br />
* erst 1964 konnten dies bewiesen werden, durch die Messung der Absorptionsspektren<br />
*[[Datei:Pdt-kurven.svg]]<br />
<br />
=== Postrezeptive Wahrnehmung ===<br />
* Mit dem 3 Farbenmodell konnten einige psychologische Erscheinungen nicht erklärt werden<br />
** Es werden 4 Farben als besonderst "rein" empfunden (Rto, Geln,Grün, Blau)<br />
** Unbunte Farben werden werden als das fehlen von Farben wahrgenommen<br />
** Schwarz schein gleichberechtigt zu Weiß<br />
** keine wahrgenommene Farbe erscheint zugleich rötlich und grün<br />
* das führte zur Gegenfarbentheorie die anfangs nur Psychologisch begründet war 1958 aber physiologisch Nachgewiesen werden konnte<br />
** Rot - Grün<br />
** Gelb - Blau<br />
** Schwarz - Weiß<br />
* → CIELab-Farbraum<br />
<br />
=== Kortikale Kodierung ===<br />
* Weder die 3 Farbentheorie noch die Gegenfarbentheorie beschreiben die bewusste Wahrnehmung des Menschen<br />
* Deshalb erweitertes Modell<br />
** Farbton / Buntton beschreibt die als besonderst rein empfundenen Spektralfarben<br />
** Sättigung beschreibt wie stark eine Farbe verblasst ist<br />
** Helligkeit beschreibt, wie hell oder dunkel eine Farbe ist<br />
* Wo/Wie genau die neuronale Verarbeitung erfolgt, ist noch nicht sicher belegt<br />
<br />
== Die Ordnung in der Welt der Farben ==<br />
* Newton kannte die Wellenlänge noch nicht → er ordnete die Farben nach dem Regenbogen<br />
* Goethe verwendete das Gegenfarbenmodell<br />
* Munsell schlug 1905 ein Farbordnungssystem vor bei dem alle Abstände zwischen den Farben Empfindungsmäßig gleich sind<br />
** führt zu einem geometrisch nicht regelmäßigen Körper<br />
<br />
== Das Modell der Farbe ==<br />
* '''Definition'''<br />
** Farbe ist diejenige Gesichtsempfindung eines dem Auge strukturlos erscheinenden Teils eines Gesichtsfeldes durch die sich diser Teil bei einäugiger Betrachtung mit unbewegtem Auge von einem gleichzeitig gesehenen ebenfalls strukturlos angrenzendem Bezirk allein unterscheidet (unbunte Farben: Schwarz, Weiß und Graustufen, bunte Farben: Helligkeit; Buntheit setzt sich aus Buntton und Farbsättigung zusammen)<br />
** Farbe ist durch Helligkeit, Buntton, Sättigung eindeutig bestimmt → 3D Modell<br />
*** drei linear unabhängige Größen<br />
*** Additive Mischung zur Reproduktion von Farbe (aus Rot, Grün, Blau)<br />
*** drei linearunabhängige Größen spannen immer einen Raum auf → Rot,Grün und Blau werden die Achsen dieses Raumes<br />
<br />
=== Farbvalenz ===<br />
* Mit unserem Modell läßt sich jede Farbe als linearkombination unserer drei Basisvektoren aufschreiben<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
** <math> \vec F</math> ... Farbvalenz<br />
** <math> \vec r, \vec g, \vec b </math> ... die drei Basisvektoren die den Raum aufspannen (Rot, Grün und Blau)<br />
** <math> R,G,B, |\vec F| </math> ... die Farbwerte<br />
** <math> \vec r \cdot R, \vec g \cdot G, \vec b \cdot B </math> ... die drei Primärvalenzen<br />
* Ermittelt werden die Farbwerte mit Hilfe der Vergleichsmethode<br />
** Eine Person vergleicht ein Target mit einer Farbe die aus den drei Primärvalenzen gemischt wird<br />
** wenn die Empfindung der beiden Farben gleich ist, dann notieren wir die Werte<br />
* Innere Farbmischung<br />
** das Target wird mit weißen Licht beleuchtet und wir drehen nur an dem Farbmischgerät<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
* Äußere Farbmischung<br />
** Wir beleuchten das Target mit farbigen Lichte<br />
**<math> \vec F+ B \cdot \vec b = R \cdot \vec r + G \cdot \vec g \rightarrow \vec F = R \cdot \vec r + G \cdot \vec g - B \cdot \vec b</math><br />
<br />
=== Farbreizmetrik ===<br />
* Die Farbreizfunktion <math> \varphi_\lambda</math> beschreibt die spektrale Zusammensetzung der Farbempfindungen<br />
*# Selbstleuchtende Objekte<br />
*#* <math> S_\lambda (\lambda)</math> beschreibt die spektrale Verteilung der Quelle<br />
*#* Wahrnehmung: <math> \varphi_\lambda = S_\lambda</math><br />
*# Auflicht Vorlagen<br />
*#* <math>\beta_\lambda(\lambda)</math> beschreibt den spektralen Remisionsgrad der Vorlage<br />
*#* Wahrnehmung: Licht reflektiert von der Vorlage <math> \varphi_\lambda = S_\lambda \cdot \beta_\lambda</math><br />
*# Durchlichtvorlagen<br />
*#* <math>\tau_\lambda(\lambda)</math> spektraler Transmissionsgrad der Vorlage<br />
*#* Wahrnehmung von Licht welches die Vorlage durchdrungen hat <math>\varphi_\lambda= S_\lambda \cdot \tau_\lambda</math><br />
* Damit haben folgende Faktoren Auswirkung auf die Wahrgenommene Farbe<br />
*# Die Beleuchtung des Objektes (Spektrale Zusammensetzung des Lichtes der Lampe)<br />
*# Das Remmisionsverhalten der beleuchteten Oberfläche<br />
*# Die wellenlängenabhängige Empfindlichkeit der drei Zapfen des Auges<br />
* Es besteht die Möglichkeit die pdt Kurven direkt zur Beschreibung des Farbempfindens zu nutzen<br />
* Die Farbwerte könnte man dann wie folgt ermitteln: <math> \left(\begin{matrix}P\\D\\T\end{matrix}\right)=k\int_{380\mathit{nm}}^{780\mathit{nm}}\varphi (\lambda )\cdot \left(\begin{matrix}p(\lambda )\\d(\lambda )\\t(\lambda )\end{matrix}\right)d\lambda </math><br />
* Für die technische Darstellung von Farbe werden allerdings R,G,B werte benötigt<br />
* Die dafür notwendigen Spektralwertkurven können mit Hilfe der Vergleichsmethode ermittelt werden<br />
* Man erhält damit folgende Kurven<br />
[[Datei:SpektralwertfunktionenRGB.jpg]]<br />
* Mit der gleichen Formel wie bei der pdt Kurve lassen sich nun die R,G,B Werte rechnerisch ermitteln<br />
<br />
== Farbanalyse, Zusammenhang mit der Farbwidergabe ==<br />
* Das Kammera - Monitor System soll die Farbe exakt wiedergeben<br />
* Der Monitor verwendet EBU Phosphore für die Farbdarstellung<br />
** haben selbst Spektralwert kurven => keine Monochromatischen Lichter mehr<br />
* Die notwendigen spektralwertkurven die die Kamera realisieren muss um die Bilder auf dem Monitor exakt darzustellen lassen sich mit Hilfe der pdt Kurven herleiten (Über forderung der Gleicheit der Farben)<br />
* Sie besitzen stark negative Anteile => Auch die Filter der Kamera müssten negative Transsmissionsgrade besitzen<br />
** technisch ist das nicht möglich<br />
* es bleibt also nur die Möglichkeit die notwendigen Parameter zur Ansteuerung des Monitors aus positive one-peak Kurven zu berechnen<br />
<br />
== Subtraktive Farbmischung ==<br />
* Die Subtraktive Farbmischung lässt sich auf die Multiplikation der Transmissionsgrade zurückführen (ein Filter lässt 50% rotes licht durch, wenn man zwei dieser Filter hintereinander legt, dann geht nur noch 25% rotes Licht durch die Anordnung (0.5*0.5 = 0.25) )<br />
* wenn <math> \tau_0 </math> die Transmission eines Filters für die normierte Dicke 1 und die normiert Dichte 1 ist dann kann man<br />
** mit dem Lambertschen Absorbtionsgesetzt die Absortption von dickern/düneren Material berechnen <br> <math> \tau = [ \tau_0]^w </math><br />
*** w ... Dicke des Materials im Verhältnis zum norm Material<br />
** mit dem Beerschen Gesetz die Transmission von Meterial mit anderer Dichte berechnen <br><math> \tau = [ \tau_0]^c </math><br />
*** c... Das Verhältnis der neuen zur alten Dichte<br />
** kann man auch kombinieren zu (Lambert-Beersches Gesetz)<br />
** <math> \tau = [ \tau_0]^{c \cdot w} </math><br />
* Da sich die Transmission Multiplikativ zusammensetzt wird auch gerne mit dem logarithmus der Transmission gerechnet (optische Dichte)<br />
**<math> D = - lg \tau = lg \frac{1}{\tau}</math><br />
** Damit vereinfacht sich das Lambert-Beersche gesetz zu: <math> D = c \cdot w \cdot D_0</math><br />
* selbstverständlich sind die Transmission <math>\tau</math> und die optische Dichte D von der Wellenlänge abhänig ... zur Übersichtlichkeit wurde das in den Formeln nur weggelassen<br />
* Bei einem Papierbild kommt zu dem Filter noch die Reflexion an der Farboberfläche und an der Papieroberfläche<br />
** Beachte das Licht was an der erste Schicht wegreflektiert wird kann icht tiefer eindringen. Nur noch <math> (1-\beta)*S </math> dringt an Licht durch den ersten Filter!<br />
*** <math> \beta </math> ... Remmisionsgrad der ersten Farbe<br />
*** <math> S </math> ... Spektrale Verteilung der Lichtquelle<br />
<br />
= Farbmetrische Schnittstellen - Farbräume (GF a 49 - 55) =<br />
<br />
<pre><br />
Unterschiedliche bildgebende Systeme<br />
z.B. Farbkameras<br />
Farbscanner<br />
Spezialkameras<br />
</pre><br />
'''Widerspruch''' <math>\updownarrow</math> Farbmetrische Schnittstelle<br />
<pre><br />
Unterschiedliche Bildwiedergabesysteme<br />
"True-Color-Darstellung"<br />
- unterschiedliche Monitore, Beamer, Drucker etc.<br />
</pre><br />
<br />
== Leuchtdichte (Luminanz) ==<br />
<br />
* Luminanz Y ist die Strahlungsleistung, bewertet mit der spektralen Empfindlichkeitsfunktion des Auges für das Hellempfinden<br />
* Y ist Leistungsproportional, wenn Lichtzusammensetzung (Leistungsdichte <math>\Theta (\lambda))</math> konstant bleibt<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* Leuchtdichte berechnet sich nach dem ''Abneyschen Gesetz'':<br />
: <math> Y = L = k \cdot \underline L^T \cdot \underline F </math><br />
:* <math>\underline L^T - </math> Leuchtdichtebeiwert: gibt an wie groß der Beitrag jedes Farbwertes der Farbvalenz zum Helleindruck ist, abhängig vom gewählten Farbwiedergabesystem<br />
* Leuchtdichte L <math>\ne</math> Intensität I<br />
: <math> I = \frac 1 3 (R+G+B)</math><br />
<br />
* die perzeptuelle Antwort unseres Auges auf die Leuchtdichte wird Helligkeit (Lightness) genannt<br />
: <math><br />
L^{\star} = \begin{cases}<br />
116 \cdot \sqrt [3] {\frac Y {Y_n}} -16, & \text{wenn } \frac Y {Y_n} > 0{,}008856\\<br />
903{,}3 \cdot {\frac Y {Y_n}}, & \text{wenn } \frac Y {Y_n} \le 0{,}008856<br />
\end{cases}<br />
</math><br />
<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: Eine Quelle die nur 18% der Luminanz einer Referenz hat, erscheint uns immer noch halb so hell wie die Referenz </span><br />
<br />
== Gammakorrektur und Luma ==<br />
* '''Gammakorrektur:'''<br />
** Aufgrund der Ansteuerung von CRT Monitoren und der verwendeten Phosphore ergibt sich ungefähr eine quadratische Abhängigkeit der Luminanz vom Videosignal<br />
** Die Luminaz der drein einzelnen Farbkanäle muss den gleichen Verlauf aufweisen. Sie dürfen sich nur in ihren Maximalwerten unterscheiden!<br />
*** Sonst ist es nicht möglich die Helligkeit zu ändern und dabei die Farbe konstant zu halten<br />
** Die Gammakorrektur sorgt dafür das die Farbwiedergabe auf dem Monitor linear verläuft und nicht quadratisch<br />
*** Notwendig damit wir die gleich Wahrnehmung erzielen können als währe das Kamera-Monitor System nicht vorhanden<br />
<br />
*'''Luma:'''<br />
** Luma ist die gewichtete Summe der drei Gammakorregierten Farbwerte R',G',B'<br />
** Damit ist Luma nicht gleich Luminanz<br />
<br />
*'''Brightness'''<br />
** Brightness ist ein Begriff der beschreibt wie stark eine Fläche Licht emmitiert oder sie hell sie erscheint<br />
** Besitzt kein festes Maß und wird daher sehr frei verwendet -> HSL<br />
<br />
== Farbsysteme, Farbräume, reduzierte Farbräume ==<br />
* Die Intensität einer Farbe ist <math> I = \frac{R + G +B}{3} </math><br />
* Wählt man die Intensität konstant mit <math>I=\frac{1}{3}</math> so ergibt sich eine Ebene die den RGB-Farb Würfel Diagonal schneidet und durch die R,G,B Eckpunkte geht<br />
* Jede Farbkoordinate kann auf diese Ebene projeziert werden -> Ermöglicht die Nutzung dieser Ebene als einfache Farbtafel<br />
** Diese Ebene kann dann noch auf die 0RG- Fläche des RGB Würfels projeziert werden ohne das die Ordnung der Farben gestört werden würde -> Der Farbton einer Farbe lässt sich allein durch r und g beschreiben<br />
* in die rg-Ebene können nun alle in RGB - darstellbaren Farben und alles existierenden Farben eingetragen werden<br />
** Danach erkennt man das sich technisch mit dem RGB-System nur ein kleiner Teil der exisiterenden Farben realisieren lässt<br />
<br />
= Das Normvalenz- oder XYZ-System (GF a 76 - 86) =<br />
* Alle Farbwerte sollen durch positive Farbwerte darstellbar sein<br />
** Für Farbmessung von Interesse<br />
** Das XYZ- Dreieck muss den spektralen Kurvenzug voll umschließen<br />
* Eine weitere Forderung ist das die Leuchtdichte als unabhängige Komponete auftreten soll<br />
* Die Fläche des Dreiecks soll so klein wie möglich sein<br />
* Die dadurch berechnbaren Normalvalenzen sind physikalisch nicht erzeugbar -> Die Spektralwertkurven für das System müssen berechnet werden<br />
** Die Berechneten Spektralwertkurven sind stets nichtnegativ -> immer positive Transmissionsgrade und Sensorempfindlichkeiten<br />
[[Bild:NORMXYZ1.JPG]]<br />
* Mit dem XYZ-System kann man nun Farbdreiecke vergleichen und Bewerten<br />
** Abstände, Fehler und Systemeigenschaften sollten aber in einem empfindungsmäßig gleichabständigen Farbraum bewertet werden (u'v'w' und CIELab)<br />
* '''Optimalfarbkörper'''<br />
** Beschreibt die Grenze aller darstellbaren Körperfarben<br />
** Zur Erstellung schneidet man rechteckförmige Stückchen aus dem Spektrum von Idealweißem Licht aus<br />
<br />
== Das UVW-System ==<br />
* Informationsgehalt der Farbe für den Menschen hängt davon ab welche Farbunterschiede er wahrnehmen kann<br />
* Vor allem ist das interessant wenn Bildverarbeitungsprobleme auf der menschlichen Wahrnehmung formuliert sind<br />
* xy-Farbtafel hat starke Unterschiede zwischen örtlichen Abstenden und empfindungsmäßigen Abständen -> ungeeignet<br />
* erste Lösung<br />
** lineare Transformation<br />
** W' -> Helligkeit<br />
** U' -> Rot-Grün Bundheit<br />
** V' -> Gelb-Blau Bundheit<br />
** Ergebnis<br />
*** Wesentlich besseres Darstellung der Empfindung (Faktor 10 gegenüber dem XYZ-System)<br />
* verbesserte Lösung<br />
** verwenden einer nicht linearen Abbildung (Auge wird mit berücksichtigt)<br />
<br />
== L*a*b* oder CIELAB-Raum ==<br />
* Gegenfarbmodell<br />
* empfindungsmäßig gleichabständiger Raum<br />
* Grundsätzlich zur Angabe von Farbabweichungen verwendet<br />
** Geeignet zur Bewertung von Druckern, Monitoren und Abweichungen von Nachfärbungen<br />
* als Farbdifferenzmaß wird der euklidische Abstand benutzt (<1 nicht mehr Wahrnehmbar)<br />
<br />
== L*u*v* oder CIELUV ==<br />
* für additive Mischung vorgesehen<br />
* wie der CIELAB- Raum ein empfindungsmäßiger gleichabständiger Raum<br />
<br />
== YCbCr - Crominanzwertsystem ==<br />
* Entwickelt damit Farbfernsehen und S/W-Fernsehen Parallel betrieben werden konnten<br />
* Crominanzwerte<br />
** sind von Leuchtdichte befreite Werte<br />
** verschwinden für alle unbunten Farben<br />
** Cr= R-Y, Cg = G-Y, Cb = B-Y<br />
** Das System aus CrCbCg und Y ist überbestimmt => Es reicht die Übetragung von Cr , Cb und Y<br />
* Da das Auge auf Helligkeitsunterschiede empfindlicher reagiert als auf Farbunterschiede können die Crominanzwerte mit geringerer Auflösung übertragen werden<br />
<br />
== ΘSY - System ==<br />
* Der Bunttonwinkel Θ berechnet sich aus dem Verhältnis der Crominanzwerte Cb und Cr<br />
* Die Sättigung S ist der Betrag des Vektors CrCb<br />
<br />
== HSI - Farbraum ==<br />
* Intensität: <math> I= \frac{R+G+B}{3} </math><br />
* Sättigung: <math> S = 1 - 3 \cdot min (r,g,b) </math><br />
* Hue: <math> H= \left\{ \begin{matrix}\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B\le G \\ 2\pi -\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B>G \end{matrix}\right . </math><br />
* Raum ist nicht gleichmäßig gefüllt<br />
* bei kleinen Intensitäten I in Buntton und Sättigung Instabil<br />
* Es kann bei Farbmanipulationen dazu führen das es keine Entsprechungen im RGB gibt<br />
** Lösungen:<br />
*** Dachförmige Begrenzung des HSI Raums -> sehr Aufwendig<br />
*** Normieren der Intensitäten -> Bild kann ins dunkle verschoben werden<br />
*** Maximalwert setzen -> Falsche Farbwerte (werden ins unbunte verschoben)<br />
*** proportionales skalieren bis Farbe im RGB-Würfel liegt<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
<br />
== HSL - Farbraum ==<br />
* Gern für Computergrafik verwendet<br />
* einfache Beziehungen<br />
* Die Verwendeten Biegriffe H,S,L entsprechen nicht der Bedeutung in der Farblehre und Form des Raumes<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
* Buntton ist extrem instabil bei kleinen Sättigungen<br />
* Form des Raumes ist unpraktisch<br />
<br />
= Farbmessung (GF 1 - 11) =<br />
<br />
* Farbmessung = Ermittlung der drei zu einer Farbvalenz gehörigen Farbmaßzahlen<br />
* 3 Messmethoden: <br />
** Vergleichsmethode oder Gleichheitsverfahren<br />
** Spektralverfahren<br />
** Dreibereichsverfahren<br />
<br />
== Gleichheitsverfahren ==<br />
<br />
* Vergleiche:<br />
** Vorlage mit additivem Gemisch<br />
** Vorlage mit Farbmusterkarten (DIN-Karten)<br />
* unverzichtbar bei physiologischen Untersuchungen<br />
* aufwendig und bei kleinen Probandengruppen ungenau<br />
* d.h. für technische Messungen ohne Bedeutung<br />
<br />
'''Messbedingungen nach DIN:'''<br />
* helladaptiertes und blendfreies Sehen<br />
* unbunter Messraum<br />
* neutrale Gesichtsfeldumgebung mit gleicher oder etwas kleinerer Leuchtdichte als im Messfeld<br />
* gut ausgeruhtes und neutral gestimmtes Auge<br />
* farbnormalsichtiger Beobachter<br />
<br />
== Spektralverfahren ==<br />
<br />
* zu messende Farbvalenz = Summe spektraler Farbvalenzen<br />
* greift auf gemessene Normspektralwertkurven zurück<br />
<br />
# '''spektrale Messung zur Ermittlung der Farbreizfunktion <math>\varphi (\lambda) </math>'''<br />
#* Selbststrahler: direkte Messung der Strahlungsfunktion <math>\rightarrow \varphi (\lambda)= S (\lambda)</math><br />
#* remittierende Vorlage: Remissionsfunktion der Vorlage messen, d.h. Strahlungsfunktion S ist vorher zu bestimmen und aus <math>\varphi (\lambda)</math> heraus zu rechnen <math>\rightarrow \varphi (\lambda)= \beta (\lambda) \cdot S (\lambda)</math><br />
# '''farbvalenzmetrische Auswertung'''<br />
#* wenn <math>\beta (\lambda)</math> ermittelt wurde, kann jede beliebige (tabellierte) Lichtquelle <math>S^{\ast} (\lambda)</math>eingesetzt werden<br />
#: <math><br />
\begin{bmatrix}<br />
X\\Y\\Z<br />
\end{bmatrix}<br />
= k \cdot<br />
\begin{bmatrix}<br />
\int \bar{x} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{y} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{z} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda<br />
\end{bmatrix}<br />
</math><br />
#* Normierungskonstante k:<br />
#** Selbststrahler: nur Farbwertanteile gefragt, d.h. k ist beliebig<br />
#** Körperfarben: Y für mattweißen Körper = 100, d.h. <math>k=\frac{100}{\int {S(\lambda) \cdot \bar{y}(\lambda) d \lambda}}</math><br />
<br />
'''Messgeometrien:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bildergalerie (45°,8°,Transmission) </span><br />
<br />
* ''45°-Geometrie'': Beleuchtung unter 45° schließt Glanzeinfluss aus <math>\rightarrow</math> Sensor blickt senkrecht auf Probe<br />
* ''8°-Geometrie'': Beleuchtung diffus über Ulbricht-Kugel <math>\rightarrow</math> Sensor blickt unter 8° auf Probe; Messung mit/ohne Glanz möglich<br />
* ''Transmissionsgeometrie'': Probe wird durchleuchtet<br />
<br />
== Dreibereichsverfahren ==<br />
* die drei Farbwerte werden direkt photometrisch gemessen<br />
* Filter und spektrale Empfindlichkeite der Strahlungsempfänger müssen an die spektrale Bewertungsfunktion angepasst sein<br />
* '''Luther-Bedingung:''' <math> \tau_x(\lambda) = \frac{c_x \cdot x(\lambda)}{s_1(\lambda)}</math><br />
** <math> \tau_x(\lambda) </math> ... Filtertransmission<br />
** <math>s_1(\lambda)</math> ... Sensorempfindlichkeit (hier im ersten Kanal)<br />
** <math>c_x</math> ... Gerätekonstante<br />
** Für den Y und Z Kanal ist die Formel analog<br />
* Der notwendige Filter kann gut durch ein Set von Schmalbandigen Filtern realisiert werden<br />
<br />
== Spektralmaskenverfahren ==<br />
<br />
* spezielles Dreibereichsverfahren<br />
* Lichtzerlegung erfolgt mit einem Prisma<br />
* Das zerlegte Lich beleuchtet eine Maske (Papier, Plaste, Metal .... ne richtige echte Maske)<br />
* Messen der spektralen Verteilung (CCD-Zeile)<br />
* Ähnlich dem Spektralverfahren nur das das spektrum bereits im analogen entsprechend gewichtet wird<br />
<br />
== Metamerie ==<br />
* zwei Farbproben die bei einer bestimmten Beleuchtung gleich aussehen können bei einer anderen Beleuchtung ganz anderst aussehen<br />
* Der Metermarie-Index beschreibt diesen durch Beleuchtungswechsel entstehenden Farbwechsel<br />
* KEIN Maß für die Farbkonstantheit sondern für den Unterschied von zwei Proben<br />
* Berechnung erfolgt im L*a*b* Raum <br> <math> M_T = \sqrt {(L_{1T}-L_{2T}+L_{2B}-L_{1B})^2 +(a_{1T}-a_{2T}+a_{2B}-a_{1B})^2+(b_{1T}-b_{2T}+b_{2B}-b_{1B})^2 } </math><br />
** T ... Testlicht<br />
** B ... Bezugslicht<br />
** 1,2 ... Probennummern<br />
<br />
= Klassifikation von Messaufgaben (GF 82 - 86) =<br />
<br />
# Messung von objektiven Eigenschaften, die sich in der Veränderung spektraler Charakteristika niederschlagen<br />
#* vordergründig ist Zusammenhang zwischen Veränderungen in den physikalischen Eigenschaften von Interesse (z.B. Waferinspektion)<br />
#* Zusammenhang sollte eindeutig und von hinreichender Empfindlichkeit sein<br />
#* Wahrnehmung unterschiedlicher Farben eher Nebeneffekt<br />
# Überwachung der Stabilität von farblichen Erscheinungen<br />
#* ist bei einer oder mehreren Beleuchtungen zu überwachen<br />
#* absolute Farbmessung nicht nötig; "Anlernen" auf Farben genügt<br />
#* Abstände im Farbempfinden müssen sich in gleicher Weise in Veränderungen der Sensorsignale wiederspiegeln<br />
# absolute Farbmessung<br />
#* d.h. Ermittlung der korrekten Farbvalenz unter beliebigen Messbedingungen<br />
#* Spektralwertkurven müssen realisiert werden<br />
# Messung des spektralen Remissions- und/oder Transmissionsverhaltens von Materialien<br />
#* ausschließlich spektrale Messverfahren<br />
#* Messung der Strahlungsfunktion und der remittierten Leistungsdichte<br />
#* Berechnung der Farbvalenz bei beliebiger Beleuchtung und des Metamerie-Index<br />
<br />
'''steigende Ansprüche mit steigender Nummerierung'''<br />
<br />
= Einfache Farbkalibrierung (GF 16 - 41) =<br />
* Farben sollen möglichst exakt Wiedergegeben werden<br />
<br />
== Ausgleich von Beleuchtungseinflüssen ==<br />
* Körperfarben werden durch ihre Remmision bestimmt <math> \beta </math><br />
* Bei unterschiedlicher Beleuchtung sehen Farben unterschiedlich aus aber das Auge kann sich an die Beleuchtung adaptieren<br />
** Funktioniert bei Fotos aber nicht -> Beleuchtungsausgleich ist wichtig<br />
** Bei Farbvergleich noch viel mehr<br />
** Wird realisiert durch Weißabgleich (auf integraler Farbebene nicht möglich )<br />
* Direkte Vermessung der spektralen Eingenschaften der Kamera nicht möglich (Da Werte in Kamera bereits verrechnet werden um z.B. die negativen Anteile der Spektralkurven zu realisieren)<br />
** sehr Aufwendig (Kamera auseinanderbasteln um an die echten werte zu kommen + das durchgehen durch das Spektrum in kleinen Schritten)<br />
* Daher Verwendung von Testfarben<br />
** Führt auf Lösung eines linearen Gleichungssystem<br />
** Für menschliches empfinden -> Optimieren im CIELAB-Raum<br />
* Vorsicht bei nichtlinearen Funktionen zur Farbkalibrierung -> Kann bei zu wenig Testfarben zu total falschen Ergebnissen führen !!<br />
<br />
= Color Management (F CM 1 - 20) =<br />
* verschiedene Geräte können verschiedenen Farben darstellen<br />
* verschiedene Geräte verwenden andere Grundfarben zum mischen<br />
* Mit Hilfe von Profilen (Tabellierung der Farbwerteumrechnungen) wird eine Konvertierung der Farben vom Geräteraum in den CIELab Raum bzw umgekehrt durchgeführt<br />
* in den Profilen wird auch vermerkt welche Farben darstellbar sind und welche nicht<br />
* Somit kann man eine "Druckvorschau" auch auf einem Monitor erreichen (natürlich nur für Farben die auf beiden Geräten dargestellt werden können)<br />
** Jedes Mapping der Farben (Gamut-Mapping stellt somit einen Kompromiss dar)<br />
**# Perceptual (Die Farbbeziehungen untereinander werden erhalten) Komprimierung des Gamuts bis er in den zur Darstellung verwendeten passt<br />
**# Colometrisch -> Exakte Reproduktion aller in beiden Gamuts darstellbaren Farben<br />
**## relativ -> weiß wird auf weiß abgebildet und alle anderen Farben relativ dazu<br />
**## absoult farbmetrisch<br />
**# Saturation, alle Farben außerhalb des Zielgamuts werden zugunsten der Sättiung verändert<br />
* Kalibrierung -> Versetzen des Gerätes in einen definierten, reproduzierbaren Zustand<br />
* Charakterisierung -> Modellierung eines Gerätes welches sich ein einem stabilen definierten Zustand befindet<br />
<br />
= Kameras (GF_Ka 1 - 12) =<br />
<br />
'''Einsatzfelder:'''<br />
* ortsaufgelöste Messung von Farbe<br />
* Aufnahme und Wiedergabe von True-Color Bildern<br />
* Aufnahme farbiger oder mehrkanaliger Bilder für die Verarbeitung/Analyse (Qualitätssicherung)<br />
* Photogrammetrische Anwendungen (Lösung des Korrespondenzproblems)<br />
* Radiometrische Anwendungen (Messen im Spektralbereich)<br />
<br />
'''Dreibereichsmessung:'''<br />
* setzt die Trennung von drei sich überlappenden Spektralbereichen voraus, die dann wellenlängenabhängig zu bewerten und zu integrieren sind<br />
<br />
== Dreichip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* optische Kanaltrennung und Bewertung<br />
* beste Bildqualität, da hohe Auflösung in allen drei Kanälen<br />
* keinen örtlichen Versatz der Pixel in den drei Farbauszügen<br />
* Filter einfacher und präziser zu realisieren<br />
* befinden sich z.B. als dichroitische Spiegel auf den Strahteilerprismen<br />
<br />
<span style="color:#ee0000;"> \\ Hot-Mirror-, Cold-Mirror-Korrektur????</span><br />
<br />
== Einchip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: doppelte Anzahl grüner Pixel wegen Schärfe, MTF des Auges </span><br />
<br />
* örtliche Kanaltrennung und Bewertung<br />
* Streifen- oder Mosaikfilterstrukturen auf den einzelnen Pixeln zur örtlichen Signaltrennung<br />
* 3 oder 4 unterschiedliche spektrale Auszuüge zur Erzeugung der Farbinformation<br />
* Matrix selbst kann Interline- oder Frame-Transfer-Matrix sein<br />
* kostengünstiger und kleiner als Dreichip-Kameras<br />
* Probleme:<br />
** Farbvalenzen aus örtlich versetzten Auszügen (z.B. Farbsäume an Kanten)<br />
** nicht korrigierbare Fehler aus Nichtlinearitäten und Dunkelsignalen bei der Bildung von Mischsignalen<br />
<br />
'''generelle Anforderungen an die Signalverarbeitung:'''<br />
<br />
* primäre Kamerasignale stellen keine farbmetrische Schnittstelle zur Verfügung, d.h. alle Bewertungsfunktionen sind nicht-negativ (Spektralwertkurven fordern aber negative Wichtungen)<br />
* je nach realisierten Filtern und Genauigkeitsansprüchen <math>\rightarrow</math> lineare Matrizierung (meist Kameraintern) oder komplexere Approximation<br />
* bei hohen Genauigkeitsansprüchen <math>\rightarrow</math> Umgehung der Kamerainternen Matrizierung, weil Verstärkungsfaktoren, Toleranzen, Temperaturdrift, Langzeitstabilität etc. nicht bekannt sind<br />
* insgesamt geringe Nichtlinearitäten der CCD's können in den Ansteuerbereichen der einzelnen Kanäle zu wesentlichen Fehlern führen:<br />
** Farbvalenz ändert sich kontinuirlich mit der Shutterzeit<br />
** Pixelweise DSNU- (Dunkelsignalungleichförmigkeit) und PRNU- (Hellsignalungleichförmigkeit) Korrektur vor Erzeugung der Farbvalenz erforderlich, da sich Festmusterrauschen nicht nur auf Intensität sondern auch auf Farbart auswirkt<br />
** Dunkelsignal verdoppelt sich alle 7K, Gleichanteil wird aber geklemmt<br />
** Lichtquellentyp und Langzeitverhalten wirken sich nicht nur Intensität sondern auch auf Farbtemperatur aus<br />
<br />
'''4 spektrale Bereiche:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* vorteilhaft zur Erzeugung von Farbdifferenzsignalen für die TV-Kompatibilität<br />
* im Field-Integration-Mode werden Mischsignale gebildet, die die erforderliche Signalkorrektur für hohe Ansprüche behindern<br />
* Nichtlinearität der Ausgangsverstärker wirkt sich auf Korrektur der primären Mischsignale aus<br />
<br />
== Sequentielle Einchip-Kamera ==<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* zeitliche Kanaltrennung und Bewertung<br />
* relativ genaue Approximation der Spektralwertkurven möglich<br />
<br />
== Elektrisch steuerbare Filter ==<br />
<br />
* über die Wellenlängenabhängigkeit der Eindringtiefe der Photonen und die Steuerbarkeit der Tiefe der Potentialmulden der sensoren lassen sich steuerbare spektrale Empfindlichkeiten erzeugen<br />
<br />
= Verarbeitung von Farbbildern (1 - 31) =<br />
* Das unabhängige verarbeiten der Farbkanäle eines Farbbildes führt zu Nebeneffekten wie Farbsäume<br />
* Die höhere Vielfalt des mehrdimensionalen Raumes von Farbbildern kann Vorteilhaft genutzt werden für Pixelklassifikation, Segmentierung <br />
* Abstände, Mittlere Werte und örtliche Veränderungen sind in empfindungsmäßig gleichabständigen Räumen zu definieren und zu bewerden<br />
<br />
== Histogramme und Statistiken für Farbbilder ==<br />
* Farbbilder liefern dreidimensionale Häufigkeitsverteilungen im Farbraum → können als Approximation der entsprechenden 3D-Dichten verwendet werden<br />
* statistische Zusammenhänge zwischen den Kanälen werden in mehrdimensionalen Dichten betrachtet<br />
** Für Handauswertung meist nur 2D-Dichten, wegen der Übersicht<br />
** Für maschinelle Auswertung können diese dichten auch dreidimensional werden<br />
** für die parametrische Darstellung der Cluster werden meist multivariante Gaußverteilungen eingesetzt<br />
*** Einr Gaußverteilung ist für die Beschreibung eines Bildes mit mehreren Objekten nicht geeignet<br />
*** Die Kovarianzmatrix einer solchen "Approximation" kann aber gut zur Einschätzung der Streuung und der Mittelwerte in dem Bild eingesetzt werden<br />
<br />
=== Histogramm - Modifikationen ===<br />
* Contrast Streching, Polygonal Image Scaling, Histogram-Equalisation Siehe [[Grundlagen der Bildverarbeitung und Mustererkennung#homogene Punktoperationen|Grundlagen der Bildverarbeitung]]<br />
* Manipulation kann in verschiedenen Farbräumen ausgeführt werden (RGB,HSI,...)<br />
** In nicht empfindungsmäßig gleichabständigen Räumen muss die Transformation nicht unbedingt zum Ziel führen<br />
==== Manipulation im Farbraum RGB ====<br />
* ist der Farbraum in dem die Daten häufig vorliegen<br />
* Wirkung kann auf Grund der starken korrelation der RGB Werte bei geringen Sättigungen ausbleiben<br />
* Farbverfälschung wenn einzelne Kompontenen unabhänig von einander behandelt werden<br />
* hohes apriori-Wissen notwendig<br />
* wenn Falschfarbdarstellung gewünscht ist kann dies das mittel der Wahl sein<br />
<br />
==== Manipulationen im Farbraum HSI ====<br />
* unproblematisch in Bezug auf Farbverfälschungen<br />
* Zielsetzungen können sich einfacher beschreiben lassen (ähnelt der Beschreibung von Farbe durch den Menschen)<br />
* unabhängige Komponente (Intensität)<br />
* Kontrastverbesserung durch Sättigungsausgleich ohne Farbveränderung möglich<br />
* Stabilitätsprobleme nahe den unbunten Farben<br />
# '''Ausgleich des Intensitätshistogramms'''<br />
#* Werte möglich die keine entsprechung mehr im RGB haben → müssen geeignet herruntergerechnet werden<br />
#* bei kleinen Intensitäten sind die Bunttöne instabil → ausschließen von Veränderungen<br />
# '''Sättigungsausgleich'''<br />
#* Modifikation der Sättigung unter Beibehaltung des Bunttones<br />
#* Bei kleinen Sättigungen und kleinen Intensitäten ist der Buntton instabil → Ausschließen<br />
#* Histogramm über alle Bunttöne ist häufig verschmiert → besser Histogramm über Buntton Segmente<br />
# '''Bunttonausgleich'''<br />
#* Ziel sind Farbfalschbilder um Objekte besser unterscheiden zu können<br />
#* bei zu großen Buntton Änderungen wird die Interpretierbarkeit nur bei homogenen Flächen verbessert, meist wird sie eher verschlechtert<br />
#* Unsicherheit des Bunttons → bei geringen Sättigungen und Intensitäten ist der Buntton auszuschließen<br />
<br />
== segmentgesteuerte Farbvalenztransformationen ==<br />
* Globale Statistiken werden häufig durch nicht interressante Objekte dominiert<br />
* Ausweg ist das Betrachten von Ausschnitten und anwenden der Transformationen auf die Ausschnitte<br />
* erfordert zu erst das Segmentieren des Bildes<br />
<br />
= Referenzfreie Farbadaption auf Basis des 3D-Histogramms (HuS 32 - 39 ) =<br />
* unter bestimmten umständen kann auf eine Kalibrierung der Kamera mittels Referenzfarben verzichtet werden<br />
* Zur Korrektur soll die parametrische Approximation der 3D-Histogramme durch multivariante Gaußverteilungen genutzt werden<br />
== Vorraussetzungen für die Anwendbarkeit ==<br />
* Strukturierte Szene mit mehreren ntürlichen Objekten, die gleichmäßig über den Bunttonwinkel verteilt sind und durchschnittlichen Sättigungsgrad aufweisen<br />
* Langgestreckter SW-Prozess im Vergleich zum Rot-Grün und Blau-Gelb Prozess<br />
<br />
== Vorgehensweise ==<br />
* Korregieren von "vermutlichen" Abweichungen des Bildes in der Unbuntheitsachse<br />
* Dazu Ermitteln der Hauptachsen mit PCA<br />
* Drehen der Hauptachse in den SW-Prozess<br />
* Rücktransformation und Darstellung<br />
<br />
= Histogrammbasiertes Farbmatching(1 - 15) =<br />
* Histogramme sind im 2D Bild invariant gegenüber Rotation, Translation und Maßstab (wenn die Angaben relativ erfolgen !)<br />
* Histogramme sind auch relativ stabil gegenüber moderaten Verdeckungen und 3D-Rotation<br />
* Grobe Quantisierung der Histogramme um Fehlertoleranz zu erhöhen<br />
* Damit können Histogramme zur Objekterkennung eingesetzt werden → Bezeichnet als Color Indexing<br />
<br />
== uniformes Binning ==<br />
* einteilen der Farben in ein gleichverteiltes Histogramm<br />
* Suche in einem Bild den Ausschnitt welcher eine minimale Distanz zum Referenzbild hat<br />
* Als Abstandsmaß verwendet werden die Histogramme genutzt<br />
** Summe der Quadratischen Differenzen (Histogramme als Vektoren betrachtet und dann den euklidischen Abstand berechnet ohne Wurzel)<br />
** Earth Movers Distance (Berechnen was sich wohinverteilt haben könnte ... erfordert die Lösung des Transportproblems)<br />
* einfach aber die Bins ändern sich Sprunghaft, vor allem dann wenn Farben knapp an den willkürlichen Bingrenzen liegen<br />
<br />
== Unscharfe Chroma-Orts-Histogramme ==<br />
* Nachteile des uniformen Binning sollen überwunden werden<br />
* Alle Pixel bekommen eine unscharfe Klassenzugehörigkeit (Binnzugehörigkeit) je nach Abstand zum entsprechenden Binnmittelpunkt (wie bei [[Softcomputing|Fuzzy-C-Means]])<br />
** Ein Parameter ermöglicht dabei die Verunschärfung einzustellen (von total unscharf bis zum festen Binning)<br />
* Auch der absolute Ort der Segmente (aus denen die Histogramme erstellt werden) soll mit verwendet werden<br />
** Dazu wird das Bild in entsprechende Bereiche geteilt (8x8,16x16,...)<br />
** Alle Blöcke werden durchnnummeriert<br />
** Auch hier kommt es zu harten Umbrüchen wenn Pixel knapp an den Grenzen liegen → auch hier verunschärfen<br />
** Welche Indizees haben die Nachbarn? (Nachbarschaft in den Indizees der Blöcke heißt nicht gleich 2D-Nachbarschaft)<br />
<br />
== Cluster mittels Graphenansatz ==<br />
* Ziel ist es:<br />
** Sprunghafte Änderung der Binns zu verhindern<br />
** wenige Merkmale zu verwenden<br />
** Eng beieinander liegende Maxima trotzdem unterscheiden zu können<br />
* Verwendete Bilddaten:<br />
** Farbwinkelhistogramm, wenn Sättigung der Farben ausreichend ist<br />
** Intensitätsdiagramm, wenn Sättigung der Farben zu gering wird<br />
* Vorgehen:<br />
** Jeder Wert im Histogramm zeigt auf den Größten in seiner Nachbarschaft<br />
** Das Maximum zeigt auf sich selbst → Wird Merkmal<br />
** Weiteres Merkmal ist die Fläche die zum Maximum gehört (Nachbarn die direkt bzw. indirekt auf das entsprechende Maximum zeigen)<br />
* Match:<br />
** Finde ein Tupelpaar (Maxima in Referenzhistogram und Suchhistogram mit dem geringsten Abstand)<br />
** Ziehe gemeinsame Fläche von jedem Tupel des Paares ab<br />
** summiere gemeinsame Fläche (?)<br />
** Wiederhole bis sich keine Tupelpaare mehr bilden lassen<br />
** beziehe die laufende Summe auf das Maximum der Summe der ursprünglichen Flächen<br />
<br />
= Störunterdrückung (SU 1 - 16) =<br />
* Für nachfolgende Verarbeitungsschritte ist die Störunterdrückung sehr wichtig<br />
* Verschiedene verfahren der Rauschunterdrückung sind in [[Grundlagen der Bildverarbeitung und Mustererkennung#Lokale Operatoren zur Bildverbesserung (LOa 1 - 44) |BV]] eingeführt worden<br />
<br />
== Störunterdrückung durch Faltungsfilter ==<br />
* Anwendung wird einfach vektoriell durchgeführt (als würde man drei unabhängige Bilder gleichzeitig Filtern wollen)<br />
* es entstehen neue Farbtöne an den Übergängen zwischen Farben<br />
* im HSI Farbraum ist eine getrennte Betrachtung der Farbe und der Sättigung/Intensität möglich<br />
* Buntton ist zyklisch → muss bei der Mittelung beachtet werden<br />
* in der Farbe kann stärker gemittelt werden als in der Helligkeit (Auge nimmt Farbveränderungen schlechter wahr)<br />
* Komplexe Zahlen bieten sich hier als Rechenmittel an<br />
<br />
== adaptive gewichtete Mittelung ==<br />
* detailerhaltende Fähigkeiten von Filtern wegen der Farbsäume besonders von Interesse<br />
* Abstände verkomplizieren sich im Vergleich zu Grauwertbildern (Vektorabstandsmaße, Winkeldifferenzen,...) <br />
* Vorgehen nach dem Berechnen des Abstandes dann wieder Analog zur Grauwertfilterung<br />
<br />
== Medianfilterung ==<br />
* Problem bei der Übertragung des Rangordnungsgedankens auf Vektoren<br />
** Komponentenweises Vorgehen ist nicht geeignet (absolute Farbverfälschungen möglich)<br />
** Suche des besten Vertreters des SETS (wenn der verwendete Media im SET ist werden keine zu falschen Farben gewählt/gesetzt)<br />
*** kleinste Abstandssumme zu allen anderen Pixeln<br />
<br />
== Kombination von Averaging und Medianfilterung ==<br />
* Medianfilter ist gut für Impulsrauschen, schlecht bei Gauß hier ist Average gut<br />
* Bei den Filtern gibt es keinen unterschied zu den Grauwertbildern (unterschied besteht nur in der Realisierung der verwendeten Media/Average Filter nicht in ihrere Kombination)<br />
<br />
== Vektor-Richtungs-Filter ==<br />
* '''Basic Vecotr Directional Filter'''<br />
** Winkel zwischen Farbvalenzen als Distanzmaß<br />
** Ergebnis ist die Farbvalenz mit der kleinsten Winkeldifferenzsumme zu allen Valenzen des Fensters<br />
** Achromatische Rauschkomponenten werden nicht beseitigt<br />
* '''Generalized Vector Directional Filter '''<br />
** Suche nach den besten Vektoren aus Sicht der Richtung<br />
** Medianfilterung der Beträge der Vektoren<br />
* '''Directional Distance Filter'''<br />
** Vermeiden der Ineffizenz des GVDF Filters durch ein gemischtes Distanzmaß (Betrag und Winkel gleichzeitig)<br />
<br />
= Kantendetektion in Farbbildern (1 - 21) =<br />
* Wichtig für Segmentierung, Bildanalyse und Bildverstehen<br />
* [[Grundlagen der Bildverarbeitung und Mustererkennung#Kantendetektion (LK 1 - 38)| Kantenfilter]] bereits aus BV bekannt<br />
# '''Vektrogradient'''<br />
#* Berechnen der Jacobi-Matrix<br />
#* Wurzel aus dem größten Eigenwert ist der Vektorgradient<br />
#* Extrem Rechenaufwendig<br />
# '''Mittelwert der Richtungsableitungen'''<br />
#* Entspricht dem Gradienten im Intensitätsbild<br />
#* Zwei engegengesetzte Gradienten in unterschiedlichen Farben können sich gegenseitig aufheben → der Gradient der dritten Farbe dominiert egal wie klein er ist<br />
# '''Maximaler Gradient'''<br />
#* Suche nach dem Gradienten mit dem größten Betrag<br />
#* Korrelation der einzelnen Gradienten ist nicht von Bedeutung<br />
<br />
= Farbpixelklassifikation (Farbpixelklassifikation 1 - 21) =<br />
* Die Farbvalenzen bilden die Merkmale der Pixel<br />
* Anzustrebende Eigenschaften<br />
** Gute Beschreibung der Klassencluster und gute Trenneigenschaften<br />
** Einfache Belehrbarkeit (Aus Beispielen oder Expertenwissen)<br />
** Echtzeitfähigkeit<br />
** möglichst frühe Stufe der Verarbeitungskette ("Anspruchslosigkeit an das Bild")<br />
** Nutzen von Klassenzugehörigkeitsmaßen<br />
<br />
== optimaler Klassifikator ==<br />
* basiert auf dem Bayes-Theorem<br />
* findet die optimale Klassenentscheidung<br />
* Jeder Datenpunkt wird in die Klasse eingeordnet zur der er am Wahrscheinlichsten gehöhrt und bei der er die kleinsten Kosten für die anderen Klassen verursacht<br />
** Benötigt eine Risikofunktion die Angibt wie groß die Kosten bei Fehlklassifikation zwischen zwei Klassen sind<br />
*** Meist unbekannt und deswegen wird davon ausgegangen das die Kosten für jede Fehlklassifizierung gleich sind<br />
*** Kosten können durchaus auch bei richtiger Klassifikation definiert werden<br />
** Benötigt die Wahrscheinlichkeitsverteilung der Klassen im Raum (Meist unbekannt → Problem)<br />
*** können beliebig sein werden aber meist durch Gaußfunktionen approximiert<br />
*** in der Lernphase werden die Parameter dieser Verteilung geschätzt<br />
* Da Wahrscheinlichkeitsverteilung meist unbekannt ist, wird der Klassifikator ehr genutzt um einen anderen Klassifikator zu bewerten, wenn man eine bestimmt Wahrscheinlichkeitsverteilung festlegt (wie optimal ist der andere Klassifiaktor)<br />
<br />
== Maximum-Likliehood-Klassifikator ==<br />
* im Ansatz wie optimaler Klassifikator<br />
* setzten der Risikofunktion für alle Fehlklassifikationen auf einen konstanten Wert<br />
* verwenden von multivarianten Gaußdichten zur Beschreibung der Klassen<br />
* Entscheidung wird nur noch nach der a posteriori Wahrscheinlichkeit und der Klassen Verteilung gefällt<br />
<br />
== Malanobis-Abstandsklassifiaktor ==<br />
* schränkt den optimalen Klassifikator noch weiter ein im vergleich zum MLK Klassifikator<br />
* Kostenfunktion für Fehlklassifikation ist konstant für alle Fehlklassifikationen<br />
* Die a posteriorie Wahrscheinlichkeit für das auftreten der Klassen sein für alle Klassen gleich<br />
* Die Kovarianzmatrizen der Gaußverteilung der Klassen sind ähnlich<br />
* Damit ist die zuordnung zu den Klassen nur noch vom Abstand zu den Klassenzentren bestimmt<br />
** Abstandsmaß ist die Mahalanobis-Distanz<br />
<br />
== Gaußklassifikator und Kernel-Densitiy-Klassifikator ==<br />
* schränken noch weiter ein<br />
# '''Gaußklassifikator'''<br />
#* keine Kovarianzen mehr in der klassen Verteilung → Kugelförmige Klassenverteilungen<br />
# '''Kernel-Density-Klassifikator'''<br />
#* Spezialfall von Gauß-Mischverteilungen<br />
#* [... was genau der Macht frage ich in der Konsultation mal nach ... im Skript steht nix brauchbares]<br />
<br />
== LUT-Klassifikator ==<br />
* direktes Verwenden der Stichprobenhistogramme<br />
* erforder Closing im Merkmalsraum da nicht alles durch die Stichproben abgedeckt werden wird<br />
<br />
= Clusterverfahren (Farbpixelklassifikation 19 - 29) =<br />
* Ziel ist es komplexe Klassenbeschreibungen durch mehrere parametrische Einzelcluster zu approximieren<br />
* Beliebig komplexe Klassenformen lassen sich so Speichereffizient beschreiben<br />
* trotz Komplexer Beschreibung bleibt eine weiche Klassengrenze möglich<br />
<br />
== Erzeugen der Cluster ==<br />
=== Radiusrestriktionsmethode ===<br />
* keine Startpartition erforderlich<br />
* indirekte Optimierung: Zielfunktion dient nur der Bewertung der fertigen Partition<br />
* Ablauf:<br />
*# Erstes Element initialisiert das erste Cluster<br />
*# Alle Elemente werden einem Cluster zugeordnert wenn der Abstand zum Clusterzentrum unterhalb eines bestimmten Wertes liegt<br />
*# Für alle Elemente die damit ausserhalb der Cluster liegen wird ein neuer Cluster angelegt<br />
*# Wichtig ist eine gute Radiusschätzung der Cluster (Varianz der Stichprobe durch Anzahl der gewünschten Cluster)<br />
*# als Gütefunktion nutzt man die Quadratische Abweichung von den Clusterzentren<br />
<br />
=== Minimaldistanzmethode ===<br />
# Ausgangspunkt ist eine nur die Radiusrestriktionsmethode erstellte Partition<br />
# Alle Klassen Mittelpunkte werden neu Berechnet<br />
# Berechnen einer neuen Minimaldistanzpartiton anhand einer gewählten Metrik<br />
# Ein Abbruchkriterium entscheidt über das weitere vorgehen<br />
#* Kriterium für Partition ist besser geworden → mache Weiter<br />
#* Anzahl der Interationschritte überschritten → Abbruch<br />
#* Anzahl der Interationschritte noch nicht überschritten && Kriterium für Partition ist gleich geblieben → mache weiter<br />
#* Kriterium für Partition ist schlechter geworden → breche ab<br />
<br />
=== k-Means-Austauschverfahren ===<br />
# Ausgangspunkt ist eine Startpartition<br />
# Merkmalsvektoren umgruppieren wenn die distanz zu einem anderen Klassenzentrum kleiner ist als zum aktuellen<br />
# Neu berechnen der Klassenmetriken<br />
# Abbruch wenn anzahl der Interartionsschritte überschritten ist oder keine Umgrupierung mehr erfolgt<br />
* Meist eingesetzt wird die Mahalanobis-Distanz → Hypereliptische Cluster die sich wunderbar eignen langgestreckte Verteilungen zu approximieren<br />
<br />
= Segmentierung (Seg 1 - 8) =<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Grundlagen_der_Farbbildverarbeitung&diff=6992Grundlagen der Farbbildverarbeitung2009-03-17T10:47:52Z<p>DarkGhost: /* Clusterverfahren (Farbpixelklassifikation 19 - 45) */</p>
<hr />
<div>Link zum [http://www.zbs-ilmenau.de/intern/vip-toolkit/index.php Vip toolkit]<br />
= Einführung (GF_a 8 - 47) =<br />
<br />
== Geschichtliches zur Farbe ==<br />
<br />
=== Newton ===<br />
<br />
* 1672: New Theory about Light and Colours<br />
** Sonnenlicht = Mischung einzelner Farben<br />
** Spektralfarben sind objektive Eigenschaft des Lichtes<br />
<br />
[...]<br />
<br />
=== Goethe ===<br />
<br />
[...]<br />
<br />
== Begriff der Farbe ==<br />
<br />
* '''Farbe im engeren Sinn, stellt eine spezielle menschliche Sinneswahrnehmung dar'''<br />
* <math>\Phi_i = \int_{\Delta \lambda_i} \varphi_{\lambda} (\lambda) d \lambda</math><br />
* Leistungsdichte <math>\phi (\lambda)</math> stellt dagegen den Farbreiz dar, der die Farbempfindung hervorruft<br />
* Vektoren <math>\underline \Phi</math> sind je nach Dimension mehr oder minder genaue Approximationen des Farbreizes<br />
<br />
* Orientierung am menschlichen visuellen System und die Betrachtung psychologischer und physiologischer Grundlagen sind von Interesse:<br />
** zur richtigen Bewertung der Schwierigkeiten und Herausforderungen bei der Schaffung technischer Lösungen<br />
** zur Anpassung technischer Lösungen der Bildwiedergabe an das visuelle System<br />
** zur Nutzung optimaler Naturprinzipien für technische Lösungen<br />
** weil technische Systeme im allgemeinen auf dem inneren Modell des Menschen von der Welt beruhen und dieses Modell in hohem Maße durch den visuellen Kanal des Menschen beeinflusst ist<br />
** weil optoelektronische Sensoren, Bildverarbeitung und Bildanalyse wichtige Schnittstellen zwischen Mensch und Maschine darstellen<br />
**weil viele Objekteigenschaften durch visuelle Eindrücke beschrieben werden<br />
<br />
* menschliches Auge kann ca. 100 Graustufen / ca. 300 000 Farben unterscheiden<br />
<br />
* Drei grundsätzliche Anwendungen von Farbinformation:<br />
** Pseudokolorierung<br />
** Falschfarbendarstellung<br />
** Echtfarbdarstellung (True Color) <math>\rarr</math> hier Schwerpunkt<br />
<br />
== Farbtäuschung ==<br />
<br />
* Zuordnung zwischen Physik und Wahrnehmung nur eindeutig wenn bunte Dinge isoliert betrachtet werden<br />
* Werden bunte Objekte in bunte Umgebungen eingebettet/bewegt, dann können abweichende Farbwahrnehmungen auftreten, so genannte Farbtäuschungen<br />
* es existieren unterschiedliche Arten solcher Täuschungen:<br />
** ''Farbinduktion oder simultaner Farbkontrast'' (Farbe wird durch ihre Umgebung modifiziert)<br />
** ''Farbkonflikt'' (es konkurrieren verschiedene Sehinformationen miteinander)<br />
** ''Subjektive Farben'' (es werden bunte Farbtöne wahrgenommen, die nicht vorliegen)<br />
<br />
'''Simultaner Farbkontrast:'''<br />
* erstmals 1839 beschrieben<br />
* wo der Effekt entsteht (Auge, Cortex) ist unklar<br />
<br />
'''Farbinduktion:'''<br />
* bei kleinteiligen, sich wiederholenden Strukturen erfolgt Angleichung<br />
* kann zur Rauschunterdrückung oder zur Unterdrückung von Feintexturen zugunsten der Erkennung größerer Objekte wichtig sein<br />
<br />
'''Farbkonflikt:'''<br />
* Formen und Strukturen konkurrieren mit Farben ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf White'sche Illusion])<br />
<br />
'''Subjektive Farben:'''<br />
* durch Bewegung ist es möglich Farben zu erzeugen die ursprünglich nicht vorhanden waren ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf Drehwurm in Farbe])<br />
<br />
== Farbwahrnehmung beim Menschen ==<br />
<br />
[...]<br />
<br />
=== Rezeptive Wahrnehmung ===<br />
* 1807 stellte Young die Hypothese auf das Farbsehen auf drei Arten von Sinneszellen beruht (rout,grün,blau)<br />
* erst 1964 konnten dies bewiesen werden, durch die Messung der Absorptionsspektren<br />
*[[Datei:Pdt-kurven.svg]]<br />
<br />
=== Postrezeptive Wahrnehmung ===<br />
* Mit dem 3 Farbenmodell konnten einige psychologische Erscheinungen nicht erklärt werden<br />
** Es werden 4 Farben als besonderst "rein" empfunden (Rto, Geln,Grün, Blau)<br />
** Unbunte Farben werden werden als das fehlen von Farben wahrgenommen<br />
** Schwarz schein gleichberechtigt zu Weiß<br />
** keine wahrgenommene Farbe erscheint zugleich rötlich und grün<br />
* das führte zur Gegenfarbentheorie die anfangs nur Psychologisch begründet war 1958 aber physiologisch Nachgewiesen werden konnte<br />
** Rot - Grün<br />
** Gelb - Blau<br />
** Schwarz - Weiß<br />
* → CIELab-Farbraum<br />
<br />
=== Kortikale Kodierung ===<br />
* Weder die 3 Farbentheorie noch die Gegenfarbentheorie beschreiben die bewusste Wahrnehmung des Menschen<br />
* Deshalb erweitertes Modell<br />
** Farbton / Buntton beschreibt die als besonderst rein empfundenen Spektralfarben<br />
** Sättigung beschreibt wie stark eine Farbe verblasst ist<br />
** Helligkeit beschreibt, wie hell oder dunkel eine Farbe ist<br />
* Wo/Wie genau die neuronale Verarbeitung erfolgt, ist noch nicht sicher belegt<br />
<br />
== Die Ordnung in der Welt der Farben ==<br />
* Newton kannte die Wellenlänge noch nicht → er ordnete die Farben nach dem Regenbogen<br />
* Goethe verwendete das Gegenfarbenmodell<br />
* Munsell schlug 1905 ein Farbordnungssystem vor bei dem alle Abstände zwischen den Farben Empfindungsmäßig gleich sind<br />
** führt zu einem geometrisch nicht regelmäßigen Körper<br />
<br />
== Das Modell der Farbe ==<br />
* '''Definition'''<br />
** Farbe ist diejenige Gesichtsempfindung eines dem Auge strukturlos erscheinenden Teils eines Gesichtsfeldes durch die sich diser Teil bei einäugiger Betrachtung mit unbewegtem Auge von einem gleichzeitig gesehenen ebenfalls strukturlos angrenzendem Bezirk allein unterscheidet (unbunte Farben: Schwarz, Weiß und Graustufen, bunte Farben: Helligkeit; Buntheit setzt sich aus Buntton und Farbsättigung zusammen)<br />
** Farbe ist durch Helligkeit, Buntton, Sättigung eindeutig bestimmt → 3D Modell<br />
*** drei linear unabhängige Größen<br />
*** Additive Mischung zur Reproduktion von Farbe (aus Rot, Grün, Blau)<br />
*** drei linearunabhängige Größen spannen immer einen Raum auf → Rot,Grün und Blau werden die Achsen dieses Raumes<br />
<br />
=== Farbvalenz ===<br />
* Mit unserem Modell läßt sich jede Farbe als linearkombination unserer drei Basisvektoren aufschreiben<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
** <math> \vec F</math> ... Farbvalenz<br />
** <math> \vec r, \vec g, \vec b </math> ... die drei Basisvektoren die den Raum aufspannen (Rot, Grün und Blau)<br />
** <math> R,G,B, |\vec F| </math> ... die Farbwerte<br />
** <math> \vec r \cdot R, \vec g \cdot G, \vec b \cdot B </math> ... die drei Primärvalenzen<br />
* Ermittelt werden die Farbwerte mit Hilfe der Vergleichsmethode<br />
** Eine Person vergleicht ein Target mit einer Farbe die aus den drei Primärvalenzen gemischt wird<br />
** wenn die Empfindung der beiden Farben gleich ist, dann notieren wir die Werte<br />
* Innere Farbmischung<br />
** das Target wird mit weißen Licht beleuchtet und wir drehen nur an dem Farbmischgerät<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
* Äußere Farbmischung<br />
** Wir beleuchten das Target mit farbigen Lichte<br />
**<math> \vec F+ B \cdot \vec b = R \cdot \vec r + G \cdot \vec g \rightarrow \vec F = R \cdot \vec r + G \cdot \vec g - B \cdot \vec b</math><br />
<br />
=== Farbreizmetrik ===<br />
* Die Farbreizfunktion <math> \varphi_\lambda</math> beschreibt die spektrale Zusammensetzung der Farbempfindungen<br />
*# Selbstleuchtende Objekte<br />
*#* <math> S_\lambda (\lambda)</math> beschreibt die spektrale Verteilung der Quelle<br />
*#* Wahrnehmung: <math> \varphi_\lambda = S_\lambda</math><br />
*# Auflicht Vorlagen<br />
*#* <math>\beta_\lambda(\lambda)</math> beschreibt den spektralen Remisionsgrad der Vorlage<br />
*#* Wahrnehmung: Licht reflektiert von der Vorlage <math> \varphi_\lambda = S_\lambda \cdot \beta_\lambda</math><br />
*# Durchlichtvorlagen<br />
*#* <math>\tau_\lambda(\lambda)</math> spektraler Transmissionsgrad der Vorlage<br />
*#* Wahrnehmung von Licht welches die Vorlage durchdrungen hat <math>\varphi_\lambda= S_\lambda \cdot \tau_\lambda</math><br />
* Damit haben folgende Faktoren Auswirkung auf die Wahrgenommene Farbe<br />
*# Die Beleuchtung des Objektes (Spektrale Zusammensetzung des Lichtes der Lampe)<br />
*# Das Remmisionsverhalten der beleuchteten Oberfläche<br />
*# Die wellenlängenabhängige Empfindlichkeit der drei Zapfen des Auges<br />
* Es besteht die Möglichkeit die pdt Kurven direkt zur Beschreibung des Farbempfindens zu nutzen<br />
* Die Farbwerte könnte man dann wie folgt ermitteln: <math> \left(\begin{matrix}P\\D\\T\end{matrix}\right)=k\int_{380\mathit{nm}}^{780\mathit{nm}}\varphi (\lambda )\cdot \left(\begin{matrix}p(\lambda )\\d(\lambda )\\t(\lambda )\end{matrix}\right)d\lambda </math><br />
* Für die technische Darstellung von Farbe werden allerdings R,G,B werte benötigt<br />
* Die dafür notwendigen Spektralwertkurven können mit Hilfe der Vergleichsmethode ermittelt werden<br />
* Man erhält damit folgende Kurven<br />
[[Datei:SpektralwertfunktionenRGB.jpg]]<br />
* Mit der gleichen Formel wie bei der pdt Kurve lassen sich nun die R,G,B Werte rechnerisch ermitteln<br />
<br />
== Farbanalyse, Zusammenhang mit der Farbwidergabe ==<br />
* Das Kammera - Monitor System soll die Farbe exakt wiedergeben<br />
* Der Monitor verwendet EBU Phosphore für die Farbdarstellung<br />
** haben selbst Spektralwert kurven => keine Monochromatischen Lichter mehr<br />
* Die notwendigen spektralwertkurven die die Kamera realisieren muss um die Bilder auf dem Monitor exakt darzustellen lassen sich mit Hilfe der pdt Kurven herleiten (Über forderung der Gleicheit der Farben)<br />
* Sie besitzen stark negative Anteile => Auch die Filter der Kamera müssten negative Transsmissionsgrade besitzen<br />
** technisch ist das nicht möglich<br />
* es bleibt also nur die Möglichkeit die notwendigen Parameter zur Ansteuerung des Monitors aus positive one-peak Kurven zu berechnen<br />
<br />
== Subtraktive Farbmischung ==<br />
* Die Subtraktive Farbmischung lässt sich auf die Multiplikation der Transmissionsgrade zurückführen (ein Filter lässt 50% rotes licht durch, wenn man zwei dieser Filter hintereinander legt, dann geht nur noch 25% rotes Licht durch die Anordnung (0.5*0.5 = 0.25) )<br />
* wenn <math> \tau_0 </math> die Transmission eines Filters für die normierte Dicke 1 und die normiert Dichte 1 ist dann kann man<br />
** mit dem Lambertschen Absorbtionsgesetzt die Absortption von dickern/düneren Material berechnen <br> <math> \tau = [ \tau_0]^w </math><br />
*** w ... Dicke des Materials im Verhältnis zum norm Material<br />
** mit dem Beerschen Gesetz die Transmission von Meterial mit anderer Dichte berechnen <br><math> \tau = [ \tau_0]^c </math><br />
*** c... Das Verhältnis der neuen zur alten Dichte<br />
** kann man auch kombinieren zu (Lambert-Beersches Gesetz)<br />
** <math> \tau = [ \tau_0]^{c \cdot w} </math><br />
* Da sich die Transmission Multiplikativ zusammensetzt wird auch gerne mit dem logarithmus der Transmission gerechnet (optische Dichte)<br />
**<math> D = - lg \tau = lg \frac{1}{\tau}</math><br />
** Damit vereinfacht sich das Lambert-Beersche gesetz zu: <math> D = c \cdot w \cdot D_0</math><br />
* selbstverständlich sind die Transmission <math>\tau</math> und die optische Dichte D von der Wellenlänge abhänig ... zur Übersichtlichkeit wurde das in den Formeln nur weggelassen<br />
* Bei einem Papierbild kommt zu dem Filter noch die Reflexion an der Farboberfläche und an der Papieroberfläche<br />
** Beachte das Licht was an der erste Schicht wegreflektiert wird kann icht tiefer eindringen. Nur noch <math> (1-\beta)*S </math> dringt an Licht durch den ersten Filter!<br />
*** <math> \beta </math> ... Remmisionsgrad der ersten Farbe<br />
*** <math> S </math> ... Spektrale Verteilung der Lichtquelle<br />
<br />
= Farbmetrische Schnittstellen - Farbräume (GF a 49 - 55) =<br />
<br />
<pre><br />
Unterschiedliche bildgebende Systeme<br />
z.B. Farbkameras<br />
Farbscanner<br />
Spezialkameras<br />
</pre><br />
'''Widerspruch''' <math>\updownarrow</math> Farbmetrische Schnittstelle<br />
<pre><br />
Unterschiedliche Bildwiedergabesysteme<br />
"True-Color-Darstellung"<br />
- unterschiedliche Monitore, Beamer, Drucker etc.<br />
</pre><br />
<br />
== Leuchtdichte (Luminanz) ==<br />
<br />
* Luminanz Y ist die Strahlungsleistung, bewertet mit der spektralen Empfindlichkeitsfunktion des Auges für das Hellempfinden<br />
* Y ist Leistungsproportional, wenn Lichtzusammensetzung (Leistungsdichte <math>\Theta (\lambda))</math> konstant bleibt<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* Leuchtdichte berechnet sich nach dem ''Abneyschen Gesetz'':<br />
: <math> Y = L = k \cdot \underline L^T \cdot \underline F </math><br />
:* <math>\underline L^T - </math> Leuchtdichtebeiwert: gibt an wie groß der Beitrag jedes Farbwertes der Farbvalenz zum Helleindruck ist, abhängig vom gewählten Farbwiedergabesystem<br />
* Leuchtdichte L <math>\ne</math> Intensität I<br />
: <math> I = \frac 1 3 (R+G+B)</math><br />
<br />
* die perzeptuelle Antwort unseres Auges auf die Leuchtdichte wird Helligkeit (Lightness) genannt<br />
: <math><br />
L^{\star} = \begin{cases}<br />
116 \cdot \sqrt [3] {\frac Y {Y_n}} -16, & \text{wenn } \frac Y {Y_n} > 0{,}008856\\<br />
903{,}3 \cdot {\frac Y {Y_n}}, & \text{wenn } \frac Y {Y_n} \le 0{,}008856<br />
\end{cases}<br />
</math><br />
<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: Eine Quelle die nur 18% der Luminanz einer Referenz hat, erscheint uns immer noch halb so hell wie die Referenz </span><br />
<br />
== Gammakorrektur und Luma ==<br />
* '''Gammakorrektur:'''<br />
** Aufgrund der Ansteuerung von CRT Monitoren und der verwendeten Phosphore ergibt sich ungefähr eine quadratische Abhängigkeit der Luminanz vom Videosignal<br />
** Die Luminaz der drein einzelnen Farbkanäle muss den gleichen Verlauf aufweisen. Sie dürfen sich nur in ihren Maximalwerten unterscheiden!<br />
*** Sonst ist es nicht möglich die Helligkeit zu ändern und dabei die Farbe konstant zu halten<br />
** Die Gammakorrektur sorgt dafür das die Farbwiedergabe auf dem Monitor linear verläuft und nicht quadratisch<br />
*** Notwendig damit wir die gleich Wahrnehmung erzielen können als währe das Kamera-Monitor System nicht vorhanden<br />
<br />
*'''Luma:'''<br />
** Luma ist die gewichtete Summe der drei Gammakorregierten Farbwerte R',G',B'<br />
** Damit ist Luma nicht gleich Luminanz<br />
<br />
*'''Brightness'''<br />
** Brightness ist ein Begriff der beschreibt wie stark eine Fläche Licht emmitiert oder sie hell sie erscheint<br />
** Besitzt kein festes Maß und wird daher sehr frei verwendet -> HSL<br />
<br />
== Farbsysteme, Farbräume, reduzierte Farbräume ==<br />
* Die Intensität einer Farbe ist <math> I = \frac{R + G +B}{3} </math><br />
* Wählt man die Intensität konstant mit <math>I=\frac{1}{3}</math> so ergibt sich eine Ebene die den RGB-Farb Würfel Diagonal schneidet und durch die R,G,B Eckpunkte geht<br />
* Jede Farbkoordinate kann auf diese Ebene projeziert werden -> Ermöglicht die Nutzung dieser Ebene als einfache Farbtafel<br />
** Diese Ebene kann dann noch auf die 0RG- Fläche des RGB Würfels projeziert werden ohne das die Ordnung der Farben gestört werden würde -> Der Farbton einer Farbe lässt sich allein durch r und g beschreiben<br />
* in die rg-Ebene können nun alle in RGB - darstellbaren Farben und alles existierenden Farben eingetragen werden<br />
** Danach erkennt man das sich technisch mit dem RGB-System nur ein kleiner Teil der exisiterenden Farben realisieren lässt<br />
<br />
= Das Normvalenz- oder XYZ-System (GF a 76 - 86) =<br />
* Alle Farbwerte sollen durch positive Farbwerte darstellbar sein<br />
** Für Farbmessung von Interesse<br />
** Das XYZ- Dreieck muss den spektralen Kurvenzug voll umschließen<br />
* Eine weitere Forderung ist das die Leuchtdichte als unabhängige Komponete auftreten soll<br />
* Die Fläche des Dreiecks soll so klein wie möglich sein<br />
* Die dadurch berechnbaren Normalvalenzen sind physikalisch nicht erzeugbar -> Die Spektralwertkurven für das System müssen berechnet werden<br />
** Die Berechneten Spektralwertkurven sind stets nichtnegativ -> immer positive Transmissionsgrade und Sensorempfindlichkeiten<br />
[[Bild:NORMXYZ1.JPG]]<br />
* Mit dem XYZ-System kann man nun Farbdreiecke vergleichen und Bewerten<br />
** Abstände, Fehler und Systemeigenschaften sollten aber in einem empfindungsmäßig gleichabständigen Farbraum bewertet werden (u'v'w' und CIELab)<br />
* '''Optimalfarbkörper'''<br />
** Beschreibt die Grenze aller darstellbaren Körperfarben<br />
** Zur Erstellung schneidet man rechteckförmige Stückchen aus dem Spektrum von Idealweißem Licht aus<br />
<br />
== Das UVW-System ==<br />
* Informationsgehalt der Farbe für den Menschen hängt davon ab welche Farbunterschiede er wahrnehmen kann<br />
* Vor allem ist das interessant wenn Bildverarbeitungsprobleme auf der menschlichen Wahrnehmung formuliert sind<br />
* xy-Farbtafel hat starke Unterschiede zwischen örtlichen Abstenden und empfindungsmäßigen Abständen -> ungeeignet<br />
* erste Lösung<br />
** lineare Transformation<br />
** W' -> Helligkeit<br />
** U' -> Rot-Grün Bundheit<br />
** V' -> Gelb-Blau Bundheit<br />
** Ergebnis<br />
*** Wesentlich besseres Darstellung der Empfindung (Faktor 10 gegenüber dem XYZ-System)<br />
* verbesserte Lösung<br />
** verwenden einer nicht linearen Abbildung (Auge wird mit berücksichtigt)<br />
<br />
== L*a*b* oder CIELAB-Raum ==<br />
* Gegenfarbmodell<br />
* empfindungsmäßig gleichabständiger Raum<br />
* Grundsätzlich zur Angabe von Farbabweichungen verwendet<br />
** Geeignet zur Bewertung von Druckern, Monitoren und Abweichungen von Nachfärbungen<br />
* als Farbdifferenzmaß wird der euklidische Abstand benutzt (<1 nicht mehr Wahrnehmbar)<br />
<br />
== L*u*v* oder CIELUV ==<br />
* für additive Mischung vorgesehen<br />
* wie der CIELAB- Raum ein empfindungsmäßiger gleichabständiger Raum<br />
<br />
== YCbCr - Crominanzwertsystem ==<br />
* Entwickelt damit Farbfernsehen und S/W-Fernsehen Parallel betrieben werden konnten<br />
* Crominanzwerte<br />
** sind von Leuchtdichte befreite Werte<br />
** verschwinden für alle unbunten Farben<br />
** Cr= R-Y, Cg = G-Y, Cb = B-Y<br />
** Das System aus CrCbCg und Y ist überbestimmt => Es reicht die Übetragung von Cr , Cb und Y<br />
* Da das Auge auf Helligkeitsunterschiede empfindlicher reagiert als auf Farbunterschiede können die Crominanzwerte mit geringerer Auflösung übertragen werden<br />
<br />
== ΘSY - System ==<br />
* Der Bunttonwinkel Θ berechnet sich aus dem Verhältnis der Crominanzwerte Cb und Cr<br />
* Die Sättigung S ist der Betrag des Vektors CrCb<br />
<br />
== HSI - Farbraum ==<br />
* Intensität: <math> I= \frac{R+G+B}{3} </math><br />
* Sättigung: <math> S = 1 - 3 \cdot min (r,g,b) </math><br />
* Hue: <math> H= \left\{ \begin{matrix}\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B\le G \\ 2\pi -\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B>G \end{matrix}\right . </math><br />
* Raum ist nicht gleichmäßig gefüllt<br />
* bei kleinen Intensitäten I in Buntton und Sättigung Instabil<br />
* Es kann bei Farbmanipulationen dazu führen das es keine Entsprechungen im RGB gibt<br />
** Lösungen:<br />
*** Dachförmige Begrenzung des HSI Raums -> sehr Aufwendig<br />
*** Normieren der Intensitäten -> Bild kann ins dunkle verschoben werden<br />
*** Maximalwert setzen -> Falsche Farbwerte (werden ins unbunte verschoben)<br />
*** proportionales skalieren bis Farbe im RGB-Würfel liegt<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
<br />
== HSL - Farbraum ==<br />
* Gern für Computergrafik verwendet<br />
* einfache Beziehungen<br />
* Die Verwendeten Biegriffe H,S,L entsprechen nicht der Bedeutung in der Farblehre und Form des Raumes<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
* Buntton ist extrem instabil bei kleinen Sättigungen<br />
* Form des Raumes ist unpraktisch<br />
<br />
= Farbmessung (GF 1 - 11) =<br />
<br />
* Farbmessung = Ermittlung der drei zu einer Farbvalenz gehörigen Farbmaßzahlen<br />
* 3 Messmethoden: <br />
** Vergleichsmethode oder Gleichheitsverfahren<br />
** Spektralverfahren<br />
** Dreibereichsverfahren<br />
<br />
== Gleichheitsverfahren ==<br />
<br />
* Vergleiche:<br />
** Vorlage mit additivem Gemisch<br />
** Vorlage mit Farbmusterkarten (DIN-Karten)<br />
* unverzichtbar bei physiologischen Untersuchungen<br />
* aufwendig und bei kleinen Probandengruppen ungenau<br />
* d.h. für technische Messungen ohne Bedeutung<br />
<br />
'''Messbedingungen nach DIN:'''<br />
* helladaptiertes und blendfreies Sehen<br />
* unbunter Messraum<br />
* neutrale Gesichtsfeldumgebung mit gleicher oder etwas kleinerer Leuchtdichte als im Messfeld<br />
* gut ausgeruhtes und neutral gestimmtes Auge<br />
* farbnormalsichtiger Beobachter<br />
<br />
== Spektralverfahren ==<br />
<br />
* zu messende Farbvalenz = Summe spektraler Farbvalenzen<br />
* greift auf gemessene Normspektralwertkurven zurück<br />
<br />
# '''spektrale Messung zur Ermittlung der Farbreizfunktion <math>\varphi (\lambda) </math>'''<br />
#* Selbststrahler: direkte Messung der Strahlungsfunktion <math>\rightarrow \varphi (\lambda)= S (\lambda)</math><br />
#* remittierende Vorlage: Remissionsfunktion der Vorlage messen, d.h. Strahlungsfunktion S ist vorher zu bestimmen und aus <math>\varphi (\lambda)</math> heraus zu rechnen <math>\rightarrow \varphi (\lambda)= \beta (\lambda) \cdot S (\lambda)</math><br />
# '''farbvalenzmetrische Auswertung'''<br />
#* wenn <math>\beta (\lambda)</math> ermittelt wurde, kann jede beliebige (tabellierte) Lichtquelle <math>S^{\ast} (\lambda)</math>eingesetzt werden<br />
#: <math><br />
\begin{bmatrix}<br />
X\\Y\\Z<br />
\end{bmatrix}<br />
= k \cdot<br />
\begin{bmatrix}<br />
\int \bar{x} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{y} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{z} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda<br />
\end{bmatrix}<br />
</math><br />
#* Normierungskonstante k:<br />
#** Selbststrahler: nur Farbwertanteile gefragt, d.h. k ist beliebig<br />
#** Körperfarben: Y für mattweißen Körper = 100, d.h. <math>k=\frac{100}{\int {S(\lambda) \cdot \bar{y}(\lambda) d \lambda}}</math><br />
<br />
'''Messgeometrien:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bildergalerie (45°,8°,Transmission) </span><br />
<br />
* ''45°-Geometrie'': Beleuchtung unter 45° schließt Glanzeinfluss aus <math>\rightarrow</math> Sensor blickt senkrecht auf Probe<br />
* ''8°-Geometrie'': Beleuchtung diffus über Ulbricht-Kugel <math>\rightarrow</math> Sensor blickt unter 8° auf Probe; Messung mit/ohne Glanz möglich<br />
* ''Transmissionsgeometrie'': Probe wird durchleuchtet<br />
<br />
== Dreibereichsverfahren ==<br />
* die drei Farbwerte werden direkt photometrisch gemessen<br />
* Filter und spektrale Empfindlichkeite der Strahlungsempfänger müssen an die spektrale Bewertungsfunktion angepasst sein<br />
* '''Luther-Bedingung:''' <math> \tau_x(\lambda) = \frac{c_x \cdot x(\lambda)}{s_1(\lambda)}</math><br />
** <math> \tau_x(\lambda) </math> ... Filtertransmission<br />
** <math>s_1(\lambda)</math> ... Sensorempfindlichkeit (hier im ersten Kanal)<br />
** <math>c_x</math> ... Gerätekonstante<br />
** Für den Y und Z Kanal ist die Formel analog<br />
* Der notwendige Filter kann gut durch ein Set von Schmalbandigen Filtern realisiert werden<br />
<br />
== Spektralmaskenverfahren ==<br />
<br />
* spezielles Dreibereichsverfahren<br />
* Lichtzerlegung erfolgt mit einem Prisma<br />
* Das zerlegte Lich beleuchtet eine Maske (Papier, Plaste, Metal .... ne richtige echte Maske)<br />
* Messen der spektralen Verteilung (CCD-Zeile)<br />
* Ähnlich dem Spektralverfahren nur das das spektrum bereits im analogen entsprechend gewichtet wird<br />
<br />
== Metamerie ==<br />
* zwei Farbproben die bei einer bestimmten Beleuchtung gleich aussehen können bei einer anderen Beleuchtung ganz anderst aussehen<br />
* Der Metermarie-Index beschreibt diesen durch Beleuchtungswechsel entstehenden Farbwechsel<br />
* KEIN Maß für die Farbkonstantheit sondern für den Unterschied von zwei Proben<br />
* Berechnung erfolgt im L*a*b* Raum <br> <math> M_T = \sqrt {(L_{1T}-L_{2T}+L_{2B}-L_{1B})^2 +(a_{1T}-a_{2T}+a_{2B}-a_{1B})^2+(b_{1T}-b_{2T}+b_{2B}-b_{1B})^2 } </math><br />
** T ... Testlicht<br />
** B ... Bezugslicht<br />
** 1,2 ... Probennummern<br />
<br />
= Klassifikation von Messaufgaben (GF 82 - 86) =<br />
<br />
# Messung von objektiven Eigenschaften, die sich in der Veränderung spektraler Charakteristika niederschlagen<br />
#* vordergründig ist Zusammenhang zwischen Veränderungen in den physikalischen Eigenschaften von Interesse (z.B. Waferinspektion)<br />
#* Zusammenhang sollte eindeutig und von hinreichender Empfindlichkeit sein<br />
#* Wahrnehmung unterschiedlicher Farben eher Nebeneffekt<br />
# Überwachung der Stabilität von farblichen Erscheinungen<br />
#* ist bei einer oder mehreren Beleuchtungen zu überwachen<br />
#* absolute Farbmessung nicht nötig; "Anlernen" auf Farben genügt<br />
#* Abstände im Farbempfinden müssen sich in gleicher Weise in Veränderungen der Sensorsignale wiederspiegeln<br />
# absolute Farbmessung<br />
#* d.h. Ermittlung der korrekten Farbvalenz unter beliebigen Messbedingungen<br />
#* Spektralwertkurven müssen realisiert werden<br />
# Messung des spektralen Remissions- und/oder Transmissionsverhaltens von Materialien<br />
#* ausschließlich spektrale Messverfahren<br />
#* Messung der Strahlungsfunktion und der remittierten Leistungsdichte<br />
#* Berechnung der Farbvalenz bei beliebiger Beleuchtung und des Metamerie-Index<br />
<br />
'''steigende Ansprüche mit steigender Nummerierung'''<br />
<br />
= Einfache Farbkalibrierung (GF 16 - 41) =<br />
* Farben sollen möglichst exakt Wiedergegeben werden<br />
<br />
== Ausgleich von Beleuchtungseinflüssen ==<br />
* Körperfarben werden durch ihre Remmision bestimmt <math> \beta </math><br />
* Bei unterschiedlicher Beleuchtung sehen Farben unterschiedlich aus aber das Auge kann sich an die Beleuchtung adaptieren<br />
** Funktioniert bei Fotos aber nicht -> Beleuchtungsausgleich ist wichtig<br />
** Bei Farbvergleich noch viel mehr<br />
** Wird realisiert durch Weißabgleich (auf integraler Farbebene nicht möglich )<br />
* Direkte Vermessung der spektralen Eingenschaften der Kamera nicht möglich (Da Werte in Kamera bereits verrechnet werden um z.B. die negativen Anteile der Spektralkurven zu realisieren)<br />
** sehr Aufwendig (Kamera auseinanderbasteln um an die echten werte zu kommen + das durchgehen durch das Spektrum in kleinen Schritten)<br />
* Daher Verwendung von Testfarben<br />
** Führt auf Lösung eines linearen Gleichungssystem<br />
** Für menschliches empfinden -> Optimieren im CIELAB-Raum<br />
* Vorsicht bei nichtlinearen Funktionen zur Farbkalibrierung -> Kann bei zu wenig Testfarben zu total falschen Ergebnissen führen !!<br />
<br />
= Color Management (F CM 1 - 20) =<br />
* verschiedene Geräte können verschiedenen Farben darstellen<br />
* verschiedene Geräte verwenden andere Grundfarben zum mischen<br />
* Mit Hilfe von Profilen (Tabellierung der Farbwerteumrechnungen) wird eine Konvertierung der Farben vom Geräteraum in den CIELab Raum bzw umgekehrt durchgeführt<br />
* in den Profilen wird auch vermerkt welche Farben darstellbar sind und welche nicht<br />
* Somit kann man eine "Druckvorschau" auch auf einem Monitor erreichen (natürlich nur für Farben die auf beiden Geräten dargestellt werden können)<br />
** Jedes Mapping der Farben (Gamut-Mapping stellt somit einen Kompromiss dar)<br />
**# Perceptual (Die Farbbeziehungen untereinander werden erhalten) Komprimierung des Gamuts bis er in den zur Darstellung verwendeten passt<br />
**# Colometrisch -> Exakte Reproduktion aller in beiden Gamuts darstellbaren Farben<br />
**## relativ -> weiß wird auf weiß abgebildet und alle anderen Farben relativ dazu<br />
**## absoult farbmetrisch<br />
**# Saturation, alle Farben außerhalb des Zielgamuts werden zugunsten der Sättiung verändert<br />
* Kalibrierung -> Versetzen des Gerätes in einen definierten, reproduzierbaren Zustand<br />
* Charakterisierung -> Modellierung eines Gerätes welches sich ein einem stabilen definierten Zustand befindet<br />
<br />
= Kameras (GF_Ka 1 - 12) =<br />
<br />
'''Einsatzfelder:'''<br />
* ortsaufgelöste Messung von Farbe<br />
* Aufnahme und Wiedergabe von True-Color Bildern<br />
* Aufnahme farbiger oder mehrkanaliger Bilder für die Verarbeitung/Analyse (Qualitätssicherung)<br />
* Photogrammetrische Anwendungen (Lösung des Korrespondenzproblems)<br />
* Radiometrische Anwendungen (Messen im Spektralbereich)<br />
<br />
'''Dreibereichsmessung:'''<br />
* setzt die Trennung von drei sich überlappenden Spektralbereichen voraus, die dann wellenlängenabhängig zu bewerten und zu integrieren sind<br />
<br />
== Dreichip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* optische Kanaltrennung und Bewertung<br />
* beste Bildqualität, da hohe Auflösung in allen drei Kanälen<br />
* keinen örtlichen Versatz der Pixel in den drei Farbauszügen<br />
* Filter einfacher und präziser zu realisieren<br />
* befinden sich z.B. als dichroitische Spiegel auf den Strahteilerprismen<br />
<br />
<span style="color:#ee0000;"> \\ Hot-Mirror-, Cold-Mirror-Korrektur????</span><br />
<br />
== Einchip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: doppelte Anzahl grüner Pixel wegen Schärfe, MTF des Auges </span><br />
<br />
* örtliche Kanaltrennung und Bewertung<br />
* Streifen- oder Mosaikfilterstrukturen auf den einzelnen Pixeln zur örtlichen Signaltrennung<br />
* 3 oder 4 unterschiedliche spektrale Auszuüge zur Erzeugung der Farbinformation<br />
* Matrix selbst kann Interline- oder Frame-Transfer-Matrix sein<br />
* kostengünstiger und kleiner als Dreichip-Kameras<br />
* Probleme:<br />
** Farbvalenzen aus örtlich versetzten Auszügen (z.B. Farbsäume an Kanten)<br />
** nicht korrigierbare Fehler aus Nichtlinearitäten und Dunkelsignalen bei der Bildung von Mischsignalen<br />
<br />
'''generelle Anforderungen an die Signalverarbeitung:'''<br />
<br />
* primäre Kamerasignale stellen keine farbmetrische Schnittstelle zur Verfügung, d.h. alle Bewertungsfunktionen sind nicht-negativ (Spektralwertkurven fordern aber negative Wichtungen)<br />
* je nach realisierten Filtern und Genauigkeitsansprüchen <math>\rightarrow</math> lineare Matrizierung (meist Kameraintern) oder komplexere Approximation<br />
* bei hohen Genauigkeitsansprüchen <math>\rightarrow</math> Umgehung der Kamerainternen Matrizierung, weil Verstärkungsfaktoren, Toleranzen, Temperaturdrift, Langzeitstabilität etc. nicht bekannt sind<br />
* insgesamt geringe Nichtlinearitäten der CCD's können in den Ansteuerbereichen der einzelnen Kanäle zu wesentlichen Fehlern führen:<br />
** Farbvalenz ändert sich kontinuirlich mit der Shutterzeit<br />
** Pixelweise DSNU- (Dunkelsignalungleichförmigkeit) und PRNU- (Hellsignalungleichförmigkeit) Korrektur vor Erzeugung der Farbvalenz erforderlich, da sich Festmusterrauschen nicht nur auf Intensität sondern auch auf Farbart auswirkt<br />
** Dunkelsignal verdoppelt sich alle 7K, Gleichanteil wird aber geklemmt<br />
** Lichtquellentyp und Langzeitverhalten wirken sich nicht nur Intensität sondern auch auf Farbtemperatur aus<br />
<br />
'''4 spektrale Bereiche:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* vorteilhaft zur Erzeugung von Farbdifferenzsignalen für die TV-Kompatibilität<br />
* im Field-Integration-Mode werden Mischsignale gebildet, die die erforderliche Signalkorrektur für hohe Ansprüche behindern<br />
* Nichtlinearität der Ausgangsverstärker wirkt sich auf Korrektur der primären Mischsignale aus<br />
<br />
== Sequentielle Einchip-Kamera ==<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* zeitliche Kanaltrennung und Bewertung<br />
* relativ genaue Approximation der Spektralwertkurven möglich<br />
<br />
== Elektrisch steuerbare Filter ==<br />
<br />
* über die Wellenlängenabhängigkeit der Eindringtiefe der Photonen und die Steuerbarkeit der Tiefe der Potentialmulden der sensoren lassen sich steuerbare spektrale Empfindlichkeiten erzeugen<br />
<br />
= Verarbeitung von Farbbildern (1 - 31) =<br />
* Das unabhängige verarbeiten der Farbkanäle eines Farbbildes führt zu Nebeneffekten wie Farbsäume<br />
* Die höhere Vielfalt des mehrdimensionalen Raumes von Farbbildern kann Vorteilhaft genutzt werden für Pixelklassifikation, Segmentierung <br />
* Abstände, Mittlere Werte und örtliche Veränderungen sind in empfindungsmäßig gleichabständigen Räumen zu definieren und zu bewerden<br />
<br />
== Histogramme und Statistiken für Farbbilder ==<br />
* Farbbilder liefern dreidimensionale Häufigkeitsverteilungen im Farbraum → können als Approximation der entsprechenden 3D-Dichten verwendet werden<br />
* statistische Zusammenhänge zwischen den Kanälen werden in mehrdimensionalen Dichten betrachtet<br />
** Für Handauswertung meist nur 2D-Dichten, wegen der Übersicht<br />
** Für maschinelle Auswertung können diese dichten auch dreidimensional werden<br />
** für die parametrische Darstellung der Cluster werden meist multivariante Gaußverteilungen eingesetzt<br />
*** Einr Gaußverteilung ist für die Beschreibung eines Bildes mit mehreren Objekten nicht geeignet<br />
*** Die Kovarianzmatrix einer solchen "Approximation" kann aber gut zur Einschätzung der Streuung und der Mittelwerte in dem Bild eingesetzt werden<br />
<br />
=== Histogramm - Modifikationen ===<br />
* Contrast Streching, Polygonal Image Scaling, Histogram-Equalisation Siehe [[Grundlagen der Bildverarbeitung und Mustererkennung#homogene Punktoperationen|Grundlagen der Bildverarbeitung]]<br />
* Manipulation kann in verschiedenen Farbräumen ausgeführt werden (RGB,HSI,...)<br />
** In nicht empfindungsmäßig gleichabständigen Räumen muss die Transformation nicht unbedingt zum Ziel führen<br />
==== Manipulation im Farbraum RGB ====<br />
* ist der Farbraum in dem die Daten häufig vorliegen<br />
* Wirkung kann auf Grund der starken korrelation der RGB Werte bei geringen Sättigungen ausbleiben<br />
* Farbverfälschung wenn einzelne Kompontenen unabhänig von einander behandelt werden<br />
* hohes apriori-Wissen notwendig<br />
* wenn Falschfarbdarstellung gewünscht ist kann dies das mittel der Wahl sein<br />
<br />
==== Manipulationen im Farbraum HSI ====<br />
* unproblematisch in Bezug auf Farbverfälschungen<br />
* Zielsetzungen können sich einfacher beschreiben lassen (ähnelt der Beschreibung von Farbe durch den Menschen)<br />
* unabhängige Komponente (Intensität)<br />
* Kontrastverbesserung durch Sättigungsausgleich ohne Farbveränderung möglich<br />
* Stabilitätsprobleme nahe den unbunten Farben<br />
# '''Ausgleich des Intensitätshistogramms'''<br />
#* Werte möglich die keine entsprechung mehr im RGB haben → müssen geeignet herruntergerechnet werden<br />
#* bei kleinen Intensitäten sind die Bunttöne instabil → ausschließen von Veränderungen<br />
# '''Sättigungsausgleich'''<br />
#* Modifikation der Sättigung unter Beibehaltung des Bunttones<br />
#* Bei kleinen Sättigungen und kleinen Intensitäten ist der Buntton instabil → Ausschließen<br />
#* Histogramm über alle Bunttöne ist häufig verschmiert → besser Histogramm über Buntton Segmente<br />
# '''Bunttonausgleich'''<br />
#* Ziel sind Farbfalschbilder um Objekte besser unterscheiden zu können<br />
#* bei zu großen Buntton Änderungen wird die Interpretierbarkeit nur bei homogenen Flächen verbessert, meist wird sie eher verschlechtert<br />
#* Unsicherheit des Bunttons → bei geringen Sättigungen und Intensitäten ist der Buntton auszuschließen<br />
<br />
== segmentgesteuerte Farbvalenztransformationen ==<br />
* Globale Statistiken werden häufig durch nicht interressante Objekte dominiert<br />
* Ausweg ist das Betrachten von Ausschnitten und anwenden der Transformationen auf die Ausschnitte<br />
* erfordert zu erst das Segmentieren des Bildes<br />
<br />
= Referenzfreie Farbadaption auf Basis des 3D-Histogramms (HuS 32 - 39 ) =<br />
* unter bestimmten umständen kann auf eine Kalibrierung der Kamera mittels Referenzfarben verzichtet werden<br />
* Zur Korrektur soll die parametrische Approximation der 3D-Histogramme durch multivariante Gaußverteilungen genutzt werden<br />
== Vorraussetzungen für die Anwendbarkeit ==<br />
* Strukturierte Szene mit mehreren ntürlichen Objekten, die gleichmäßig über den Bunttonwinkel verteilt sind und durchschnittlichen Sättigungsgrad aufweisen<br />
* Langgestreckter SW-Prozess im Vergleich zum Rot-Grün und Blau-Gelb Prozess<br />
<br />
== Vorgehensweise ==<br />
* Korregieren von "vermutlichen" Abweichungen des Bildes in der Unbuntheitsachse<br />
* Dazu Ermitteln der Hauptachsen mit PCA<br />
* Drehen der Hauptachse in den SW-Prozess<br />
* Rücktransformation und Darstellung<br />
<br />
= Histogrammbasiertes Farbmatching(1 - 15) =<br />
* Histogramme sind im 2D Bild invariant gegenüber Rotation, Translation und Maßstab (wenn die Angaben relativ erfolgen !)<br />
* Histogramme sind auch relativ stabil gegenüber moderaten Verdeckungen und 3D-Rotation<br />
* Grobe Quantisierung der Histogramme um Fehlertoleranz zu erhöhen<br />
* Damit können Histogramme zur Objekterkennung eingesetzt werden → Bezeichnet als Color Indexing<br />
<br />
== uniformes Binning ==<br />
* einteilen der Farben in ein gleichverteiltes Histogramm<br />
* Suche in einem Bild den Ausschnitt welcher eine minimale Distanz zum Referenzbild hat<br />
* Als Abstandsmaß verwendet werden die Histogramme genutzt<br />
** Summe der Quadratischen Differenzen (Histogramme als Vektoren betrachtet und dann den euklidischen Abstand berechnet ohne Wurzel)<br />
** Earth Movers Distance (Berechnen was sich wohinverteilt haben könnte ... erfordert die Lösung des Transportproblems)<br />
* einfach aber die Bins ändern sich Sprunghaft, vor allem dann wenn Farben knapp an den willkürlichen Bingrenzen liegen<br />
<br />
== Unscharfe Chroma-Orts-Histogramme ==<br />
* Nachteile des uniformen Binning sollen überwunden werden<br />
* Alle Pixel bekommen eine unscharfe Klassenzugehörigkeit (Binnzugehörigkeit) je nach Abstand zum entsprechenden Binnmittelpunkt (wie bei [[Softcomputing|Fuzzy-C-Means]])<br />
** Ein Parameter ermöglicht dabei die Verunschärfung einzustellen (von total unscharf bis zum festen Binning)<br />
* Auch der absolute Ort der Segmente (aus denen die Histogramme erstellt werden) soll mit verwendet werden<br />
** Dazu wird das Bild in entsprechende Bereiche geteilt (8x8,16x16,...)<br />
** Alle Blöcke werden durchnnummeriert<br />
** Auch hier kommt es zu harten Umbrüchen wenn Pixel knapp an den Grenzen liegen → auch hier verunschärfen<br />
** Welche Indizees haben die Nachbarn? (Nachbarschaft in den Indizees der Blöcke heißt nicht gleich 2D-Nachbarschaft)<br />
<br />
== Cluster mittels Graphenansatz ==<br />
* Ziel ist es:<br />
** Sprunghafte Änderung der Binns zu verhindern<br />
** wenige Merkmale zu verwenden<br />
** Eng beieinander liegende Maxima trotzdem unterscheiden zu können<br />
* Verwendete Bilddaten:<br />
** Farbwinkelhistogramm, wenn Sättigung der Farben ausreichend ist<br />
** Intensitätsdiagramm, wenn Sättigung der Farben zu gering wird<br />
* Vorgehen:<br />
** Jeder Wert im Histogramm zeigt auf den Größten in seiner Nachbarschaft<br />
** Das Maximum zeigt auf sich selbst → Wird Merkmal<br />
** Weiteres Merkmal ist die Fläche die zum Maximum gehört (Nachbarn die direkt bzw. indirekt auf das entsprechende Maximum zeigen)<br />
* Match:<br />
** Finde ein Tupelpaar (Maxima in Referenzhistogram und Suchhistogram mit dem geringsten Abstand)<br />
** Ziehe gemeinsame Fläche von jedem Tupel des Paares ab<br />
** summiere gemeinsame Fläche (?)<br />
** Wiederhole bis sich keine Tupelpaare mehr bilden lassen<br />
** beziehe die laufende Summe auf das Maximum der Summe der ursprünglichen Flächen<br />
<br />
= Störunterdrückung (SU 1 - 16) =<br />
* Für nachfolgende Verarbeitungsschritte ist die Störunterdrückung sehr wichtig<br />
* Verschiedene verfahren der Rauschunterdrückung sind in [[Grundlagen der Bildverarbeitung und Mustererkennung#Lokale Operatoren zur Bildverbesserung (LOa 1 - 44) |BV]] eingeführt worden<br />
<br />
== Störunterdrückung durch Faltungsfilter ==<br />
* Anwendung wird einfach vektoriell durchgeführt (als würde man drei unabhängige Bilder gleichzeitig Filtern wollen)<br />
* es entstehen neue Farbtöne an den Übergängen zwischen Farben<br />
* im HSI Farbraum ist eine getrennte Betrachtung der Farbe und der Sättigung/Intensität möglich<br />
* Buntton ist zyklisch → muss bei der Mittelung beachtet werden<br />
* in der Farbe kann stärker gemittelt werden als in der Helligkeit (Auge nimmt Farbveränderungen schlechter wahr)<br />
* Komplexe Zahlen bieten sich hier als Rechenmittel an<br />
<br />
== adaptive gewichtete Mittelung ==<br />
* detailerhaltende Fähigkeiten von Filtern wegen der Farbsäume besonders von Interesse<br />
* Abstände verkomplizieren sich im Vergleich zu Grauwertbildern (Vektorabstandsmaße, Winkeldifferenzen,...) <br />
* Vorgehen nach dem Berechnen des Abstandes dann wieder Analog zur Grauwertfilterung<br />
<br />
== Medianfilterung ==<br />
* Problem bei der Übertragung des Rangordnungsgedankens auf Vektoren<br />
** Komponentenweises Vorgehen ist nicht geeignet (absolute Farbverfälschungen möglich)<br />
** Suche des besten Vertreters des SETS (wenn der verwendete Media im SET ist werden keine zu falschen Farben gewählt/gesetzt)<br />
*** kleinste Abstandssumme zu allen anderen Pixeln<br />
<br />
== Kombination von Averaging und Medianfilterung ==<br />
* Medianfilter ist gut für Impulsrauschen, schlecht bei Gauß hier ist Average gut<br />
* Bei den Filtern gibt es keinen unterschied zu den Grauwertbildern (unterschied besteht nur in der Realisierung der verwendeten Media/Average Filter nicht in ihrere Kombination)<br />
<br />
== Vektor-Richtungs-Filter ==<br />
* '''Basic Vecotr Directional Filter'''<br />
** Winkel zwischen Farbvalenzen als Distanzmaß<br />
** Ergebnis ist die Farbvalenz mit der kleinsten Winkeldifferenzsumme zu allen Valenzen des Fensters<br />
** Achromatische Rauschkomponenten werden nicht beseitigt<br />
* '''Generalized Vector Directional Filter '''<br />
** Suche nach den besten Vektoren aus Sicht der Richtung<br />
** Medianfilterung der Beträge der Vektoren<br />
* '''Directional Distance Filter'''<br />
** Vermeiden der Ineffizenz des GVDF Filters durch ein gemischtes Distanzmaß (Betrag und Winkel gleichzeitig)<br />
<br />
= Kantendetektion in Farbbildern (1 - 21) =<br />
* Wichtig für Segmentierung, Bildanalyse und Bildverstehen<br />
* [[Grundlagen der Bildverarbeitung und Mustererkennung#Kantendetektion (LK 1 - 38)| Kantenfilter]] bereits aus BV bekannt<br />
# '''Vektrogradient'''<br />
#* Berechnen der Jacobi-Matrix<br />
#* Wurzel aus dem größten Eigenwert ist der Vektorgradient<br />
#* Extrem Rechenaufwendig<br />
# '''Mittelwert der Richtungsableitungen'''<br />
#* Entspricht dem Gradienten im Intensitätsbild<br />
#* Zwei engegengesetzte Gradienten in unterschiedlichen Farben können sich gegenseitig aufheben → der Gradient der dritten Farbe dominiert egal wie klein er ist<br />
# '''Maximaler Gradient'''<br />
#* Suche nach dem Gradienten mit dem größten Betrag<br />
#* Korrelation der einzelnen Gradienten ist nicht von Bedeutung<br />
<br />
= Farbpixelklassifikation (Farbpixelklassifikation 1 - 21) =<br />
* Die Farbvalenzen bilden die Merkmale der Pixel<br />
* Anzustrebende Eigenschaften<br />
** Gute Beschreibung der Klassencluster und gute Trenneigenschaften<br />
** Einfache Belehrbarkeit (Aus Beispielen oder Expertenwissen)<br />
** Echtzeitfähigkeit<br />
** möglichst frühe Stufe der Verarbeitungskette ("Anspruchslosigkeit an das Bild")<br />
** Nutzen von Klassenzugehörigkeitsmaßen<br />
<br />
== optimaler Klassifikator ==<br />
* basiert auf dem Bayes-Theorem<br />
* findet die optimale Klassenentscheidung<br />
* Jeder Datenpunkt wird in die Klasse eingeordnet zur der er am Wahrscheinlichsten gehöhrt und bei der er die kleinsten Kosten für die anderen Klassen verursacht<br />
** Benötigt eine Risikofunktion die Angibt wie groß die Kosten bei Fehlklassifikation zwischen zwei Klassen sind<br />
*** Meist unbekannt und deswegen wird davon ausgegangen das die Kosten für jede Fehlklassifizierung gleich sind<br />
*** Kosten können durchaus auch bei richtiger Klassifikation definiert werden<br />
** Benötigt die Wahrscheinlichkeitsverteilung der Klassen im Raum (Meist unbekannt → Problem)<br />
*** können beliebig sein werden aber meist durch Gaußfunktionen approximiert<br />
*** in der Lernphase werden die Parameter dieser Verteilung geschätzt<br />
* Da Wahrscheinlichkeitsverteilung meist unbekannt ist, wird der Klassifikator ehr genutzt um einen anderen Klassifikator zu bewerten, wenn man eine bestimmt Wahrscheinlichkeitsverteilung festlegt (wie optimal ist der andere Klassifiaktor)<br />
<br />
== Maximum-Likliehood-Klassifikator ==<br />
* im Ansatz wie optimaler Klassifikator<br />
* setzten der Risikofunktion für alle Fehlklassifikationen auf einen konstanten Wert<br />
* verwenden von multivarianten Gaußdichten zur Beschreibung der Klassen<br />
* Entscheidung wird nur noch nach der a posteriori Wahrscheinlichkeit und der Klassen Verteilung gefällt<br />
<br />
== Malanobis-Abstandsklassifiaktor ==<br />
* schränkt den optimalen Klassifikator noch weiter ein im vergleich zum MLK Klassifikator<br />
* Kostenfunktion für Fehlklassifikation ist konstant für alle Fehlklassifikationen<br />
* Die a posteriorie Wahrscheinlichkeit für das auftreten der Klassen sein für alle Klassen gleich<br />
* Die Kovarianzmatrizen der Gaußverteilung der Klassen sind ähnlich<br />
* Damit ist die zuordnung zu den Klassen nur noch vom Abstand zu den Klassenzentren bestimmt<br />
** Abstandsmaß ist die Mahalanobis-Distanz<br />
<br />
== Gaußklassifikator und Kernel-Densitiy-Klassifikator ==<br />
* schränken noch weiter ein<br />
# '''Gaußklassifikator'''<br />
#* keine Kovarianzen mehr in der klassen Verteilung → Kugelförmige Klassenverteilungen<br />
# '''Kernel-Density-Klassifikator'''<br />
#* Spezialfall von Gauß-Mischverteilungen<br />
#* [... was genau der Macht frage ich in der Konsultation mal nach ... im Skript steht nix brauchbares]<br />
<br />
== LUT-Klassifikator ==<br />
* direktes Verwenden der Stichprobenhistogramme<br />
* erforder Closing im Merkmalsraum da nicht alles durch die Stichproben abgedeckt werden wird<br />
<br />
= Clusterverfahren (Farbpixelklassifikation 19 - 45) =<br />
* Ziel ist es komplexe Klassenbeschreibungen durch mehrere parametrische Einzelcluster zu approximieren<br />
* Beliebig komplexe Klassenformen lassen sich so Speichereffizient beschreiben<br />
* trotz Komplexer Beschreibung bleibt eine weiche Klassengrenze möglich<br />
<br />
== Erzeugen der Cluster ==<br />
=== Radiusrestriktionsmethode ===<br />
* keine Startpartition erforderlich<br />
* indirekte Optimierung: Zielfunktion dient nur der Bewertung der fertigen Partition<br />
* Ablauf:<br />
*# Erstes Element initialisiert das erste Cluster<br />
*# Alle Elemente werden einem Cluster zugeordnert wenn der Abstand zum Clusterzentrum unterhalb eines bestimmten Wertes liegt<br />
*# Für alle Elemente die damit ausserhalb der Cluster liegen wird ein neuer Cluster angelegt<br />
*# Wichtig ist eine gute Radiusschätzung der Cluster (Varianz der Stichprobe durch Anzahl der gewünschten Cluster)<br />
*# als Gütefunktion nutzt man die Quadratische Abweichung von den Clusterzentren<br />
<br />
=== Minimaldistanzmethode ===<br />
# Ausgangspunkt ist eine nur die Radiusrestriktionsmethode erstellte Partition<br />
# Alle Klassen Mittelpunkte werden neu Berechnet<br />
# Berechnen einer neuen Minimaldistanzpartiton anhand einer gewählten Metrik<br />
# Ein Abbruchkriterium entscheidt über das weitere vorgehen<br />
#* Kriterium für Partition ist besser geworden → mache Weiter<br />
#* Anzahl der Interationschritte überschritten → Abbruch<br />
#* Anzahl der Interationschritte noch nicht überschritten && Kriterium für Partition ist gleich geblieben → mache weiter<br />
#* Kriterium für Partition ist schlechter geworden → breche ab<br />
<br />
=== k-Means-Austauschverfahren ===<br />
# Ausgangspunkt ist eine Startpartition<br />
# Merkmalsvektoren umgruppieren wenn die distanz zu einem anderen Klassenzentrum kleiner ist als zum aktuellen<br />
# Neu berechnen der Klassenmetriken<br />
# Abbruch wenn anzahl der Interartionsschritte überschritten ist oder keine Umgrupierung mehr erfolgt<br />
* Meist eingesetzt wird die Mahalanobis-Distanz → Hypereliptische Cluster die sich wunderbar eignen langgestreckte Verteilungen zu approximieren<br />
<br />
= Segmentierung (Seg 1 - 8) =<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Grundlagen_der_Farbbildverarbeitung&diff=6991Grundlagen der Farbbildverarbeitung2009-03-17T09:57:15Z<p>DarkGhost: /* Farbpixelklassifikation (Farbpixelklassifikation 1 - 21) */</p>
<hr />
<div>Link zum [http://www.zbs-ilmenau.de/intern/vip-toolkit/index.php Vip toolkit]<br />
= Einführung (GF_a 8 - 47) =<br />
<br />
== Geschichtliches zur Farbe ==<br />
<br />
=== Newton ===<br />
<br />
* 1672: New Theory about Light and Colours<br />
** Sonnenlicht = Mischung einzelner Farben<br />
** Spektralfarben sind objektive Eigenschaft des Lichtes<br />
<br />
[...]<br />
<br />
=== Goethe ===<br />
<br />
[...]<br />
<br />
== Begriff der Farbe ==<br />
<br />
* '''Farbe im engeren Sinn, stellt eine spezielle menschliche Sinneswahrnehmung dar'''<br />
* <math>\Phi_i = \int_{\Delta \lambda_i} \varphi_{\lambda} (\lambda) d \lambda</math><br />
* Leistungsdichte <math>\phi (\lambda)</math> stellt dagegen den Farbreiz dar, der die Farbempfindung hervorruft<br />
* Vektoren <math>\underline \Phi</math> sind je nach Dimension mehr oder minder genaue Approximationen des Farbreizes<br />
<br />
* Orientierung am menschlichen visuellen System und die Betrachtung psychologischer und physiologischer Grundlagen sind von Interesse:<br />
** zur richtigen Bewertung der Schwierigkeiten und Herausforderungen bei der Schaffung technischer Lösungen<br />
** zur Anpassung technischer Lösungen der Bildwiedergabe an das visuelle System<br />
** zur Nutzung optimaler Naturprinzipien für technische Lösungen<br />
** weil technische Systeme im allgemeinen auf dem inneren Modell des Menschen von der Welt beruhen und dieses Modell in hohem Maße durch den visuellen Kanal des Menschen beeinflusst ist<br />
** weil optoelektronische Sensoren, Bildverarbeitung und Bildanalyse wichtige Schnittstellen zwischen Mensch und Maschine darstellen<br />
**weil viele Objekteigenschaften durch visuelle Eindrücke beschrieben werden<br />
<br />
* menschliches Auge kann ca. 100 Graustufen / ca. 300 000 Farben unterscheiden<br />
<br />
* Drei grundsätzliche Anwendungen von Farbinformation:<br />
** Pseudokolorierung<br />
** Falschfarbendarstellung<br />
** Echtfarbdarstellung (True Color) <math>\rarr</math> hier Schwerpunkt<br />
<br />
== Farbtäuschung ==<br />
<br />
* Zuordnung zwischen Physik und Wahrnehmung nur eindeutig wenn bunte Dinge isoliert betrachtet werden<br />
* Werden bunte Objekte in bunte Umgebungen eingebettet/bewegt, dann können abweichende Farbwahrnehmungen auftreten, so genannte Farbtäuschungen<br />
* es existieren unterschiedliche Arten solcher Täuschungen:<br />
** ''Farbinduktion oder simultaner Farbkontrast'' (Farbe wird durch ihre Umgebung modifiziert)<br />
** ''Farbkonflikt'' (es konkurrieren verschiedene Sehinformationen miteinander)<br />
** ''Subjektive Farben'' (es werden bunte Farbtöne wahrgenommen, die nicht vorliegen)<br />
<br />
'''Simultaner Farbkontrast:'''<br />
* erstmals 1839 beschrieben<br />
* wo der Effekt entsteht (Auge, Cortex) ist unklar<br />
<br />
'''Farbinduktion:'''<br />
* bei kleinteiligen, sich wiederholenden Strukturen erfolgt Angleichung<br />
* kann zur Rauschunterdrückung oder zur Unterdrückung von Feintexturen zugunsten der Erkennung größerer Objekte wichtig sein<br />
<br />
'''Farbkonflikt:'''<br />
* Formen und Strukturen konkurrieren mit Farben ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf White'sche Illusion])<br />
<br />
'''Subjektive Farben:'''<br />
* durch Bewegung ist es möglich Farben zu erzeugen die ursprünglich nicht vorhanden waren ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf Drehwurm in Farbe])<br />
<br />
== Farbwahrnehmung beim Menschen ==<br />
<br />
[...]<br />
<br />
=== Rezeptive Wahrnehmung ===<br />
* 1807 stellte Young die Hypothese auf das Farbsehen auf drei Arten von Sinneszellen beruht (rout,grün,blau)<br />
* erst 1964 konnten dies bewiesen werden, durch die Messung der Absorptionsspektren<br />
*[[Datei:Pdt-kurven.svg]]<br />
<br />
=== Postrezeptive Wahrnehmung ===<br />
* Mit dem 3 Farbenmodell konnten einige psychologische Erscheinungen nicht erklärt werden<br />
** Es werden 4 Farben als besonderst "rein" empfunden (Rto, Geln,Grün, Blau)<br />
** Unbunte Farben werden werden als das fehlen von Farben wahrgenommen<br />
** Schwarz schein gleichberechtigt zu Weiß<br />
** keine wahrgenommene Farbe erscheint zugleich rötlich und grün<br />
* das führte zur Gegenfarbentheorie die anfangs nur Psychologisch begründet war 1958 aber physiologisch Nachgewiesen werden konnte<br />
** Rot - Grün<br />
** Gelb - Blau<br />
** Schwarz - Weiß<br />
* → CIELab-Farbraum<br />
<br />
=== Kortikale Kodierung ===<br />
* Weder die 3 Farbentheorie noch die Gegenfarbentheorie beschreiben die bewusste Wahrnehmung des Menschen<br />
* Deshalb erweitertes Modell<br />
** Farbton / Buntton beschreibt die als besonderst rein empfundenen Spektralfarben<br />
** Sättigung beschreibt wie stark eine Farbe verblasst ist<br />
** Helligkeit beschreibt, wie hell oder dunkel eine Farbe ist<br />
* Wo/Wie genau die neuronale Verarbeitung erfolgt, ist noch nicht sicher belegt<br />
<br />
== Die Ordnung in der Welt der Farben ==<br />
* Newton kannte die Wellenlänge noch nicht → er ordnete die Farben nach dem Regenbogen<br />
* Goethe verwendete das Gegenfarbenmodell<br />
* Munsell schlug 1905 ein Farbordnungssystem vor bei dem alle Abstände zwischen den Farben Empfindungsmäßig gleich sind<br />
** führt zu einem geometrisch nicht regelmäßigen Körper<br />
<br />
== Das Modell der Farbe ==<br />
* '''Definition'''<br />
** Farbe ist diejenige Gesichtsempfindung eines dem Auge strukturlos erscheinenden Teils eines Gesichtsfeldes durch die sich diser Teil bei einäugiger Betrachtung mit unbewegtem Auge von einem gleichzeitig gesehenen ebenfalls strukturlos angrenzendem Bezirk allein unterscheidet (unbunte Farben: Schwarz, Weiß und Graustufen, bunte Farben: Helligkeit; Buntheit setzt sich aus Buntton und Farbsättigung zusammen)<br />
** Farbe ist durch Helligkeit, Buntton, Sättigung eindeutig bestimmt → 3D Modell<br />
*** drei linear unabhängige Größen<br />
*** Additive Mischung zur Reproduktion von Farbe (aus Rot, Grün, Blau)<br />
*** drei linearunabhängige Größen spannen immer einen Raum auf → Rot,Grün und Blau werden die Achsen dieses Raumes<br />
<br />
=== Farbvalenz ===<br />
* Mit unserem Modell läßt sich jede Farbe als linearkombination unserer drei Basisvektoren aufschreiben<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
** <math> \vec F</math> ... Farbvalenz<br />
** <math> \vec r, \vec g, \vec b </math> ... die drei Basisvektoren die den Raum aufspannen (Rot, Grün und Blau)<br />
** <math> R,G,B, |\vec F| </math> ... die Farbwerte<br />
** <math> \vec r \cdot R, \vec g \cdot G, \vec b \cdot B </math> ... die drei Primärvalenzen<br />
* Ermittelt werden die Farbwerte mit Hilfe der Vergleichsmethode<br />
** Eine Person vergleicht ein Target mit einer Farbe die aus den drei Primärvalenzen gemischt wird<br />
** wenn die Empfindung der beiden Farben gleich ist, dann notieren wir die Werte<br />
* Innere Farbmischung<br />
** das Target wird mit weißen Licht beleuchtet und wir drehen nur an dem Farbmischgerät<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
* Äußere Farbmischung<br />
** Wir beleuchten das Target mit farbigen Lichte<br />
**<math> \vec F+ B \cdot \vec b = R \cdot \vec r + G \cdot \vec g \rightarrow \vec F = R \cdot \vec r + G \cdot \vec g - B \cdot \vec b</math><br />
<br />
=== Farbreizmetrik ===<br />
* Die Farbreizfunktion <math> \varphi_\lambda</math> beschreibt die spektrale Zusammensetzung der Farbempfindungen<br />
*# Selbstleuchtende Objekte<br />
*#* <math> S_\lambda (\lambda)</math> beschreibt die spektrale Verteilung der Quelle<br />
*#* Wahrnehmung: <math> \varphi_\lambda = S_\lambda</math><br />
*# Auflicht Vorlagen<br />
*#* <math>\beta_\lambda(\lambda)</math> beschreibt den spektralen Remisionsgrad der Vorlage<br />
*#* Wahrnehmung: Licht reflektiert von der Vorlage <math> \varphi_\lambda = S_\lambda \cdot \beta_\lambda</math><br />
*# Durchlichtvorlagen<br />
*#* <math>\tau_\lambda(\lambda)</math> spektraler Transmissionsgrad der Vorlage<br />
*#* Wahrnehmung von Licht welches die Vorlage durchdrungen hat <math>\varphi_\lambda= S_\lambda \cdot \tau_\lambda</math><br />
* Damit haben folgende Faktoren Auswirkung auf die Wahrgenommene Farbe<br />
*# Die Beleuchtung des Objektes (Spektrale Zusammensetzung des Lichtes der Lampe)<br />
*# Das Remmisionsverhalten der beleuchteten Oberfläche<br />
*# Die wellenlängenabhängige Empfindlichkeit der drei Zapfen des Auges<br />
* Es besteht die Möglichkeit die pdt Kurven direkt zur Beschreibung des Farbempfindens zu nutzen<br />
* Die Farbwerte könnte man dann wie folgt ermitteln: <math> \left(\begin{matrix}P\\D\\T\end{matrix}\right)=k\int_{380\mathit{nm}}^{780\mathit{nm}}\varphi (\lambda )\cdot \left(\begin{matrix}p(\lambda )\\d(\lambda )\\t(\lambda )\end{matrix}\right)d\lambda </math><br />
* Für die technische Darstellung von Farbe werden allerdings R,G,B werte benötigt<br />
* Die dafür notwendigen Spektralwertkurven können mit Hilfe der Vergleichsmethode ermittelt werden<br />
* Man erhält damit folgende Kurven<br />
[[Datei:SpektralwertfunktionenRGB.jpg]]<br />
* Mit der gleichen Formel wie bei der pdt Kurve lassen sich nun die R,G,B Werte rechnerisch ermitteln<br />
<br />
== Farbanalyse, Zusammenhang mit der Farbwidergabe ==<br />
* Das Kammera - Monitor System soll die Farbe exakt wiedergeben<br />
* Der Monitor verwendet EBU Phosphore für die Farbdarstellung<br />
** haben selbst Spektralwert kurven => keine Monochromatischen Lichter mehr<br />
* Die notwendigen spektralwertkurven die die Kamera realisieren muss um die Bilder auf dem Monitor exakt darzustellen lassen sich mit Hilfe der pdt Kurven herleiten (Über forderung der Gleicheit der Farben)<br />
* Sie besitzen stark negative Anteile => Auch die Filter der Kamera müssten negative Transsmissionsgrade besitzen<br />
** technisch ist das nicht möglich<br />
* es bleibt also nur die Möglichkeit die notwendigen Parameter zur Ansteuerung des Monitors aus positive one-peak Kurven zu berechnen<br />
<br />
== Subtraktive Farbmischung ==<br />
* Die Subtraktive Farbmischung lässt sich auf die Multiplikation der Transmissionsgrade zurückführen (ein Filter lässt 50% rotes licht durch, wenn man zwei dieser Filter hintereinander legt, dann geht nur noch 25% rotes Licht durch die Anordnung (0.5*0.5 = 0.25) )<br />
* wenn <math> \tau_0 </math> die Transmission eines Filters für die normierte Dicke 1 und die normiert Dichte 1 ist dann kann man<br />
** mit dem Lambertschen Absorbtionsgesetzt die Absortption von dickern/düneren Material berechnen <br> <math> \tau = [ \tau_0]^w </math><br />
*** w ... Dicke des Materials im Verhältnis zum norm Material<br />
** mit dem Beerschen Gesetz die Transmission von Meterial mit anderer Dichte berechnen <br><math> \tau = [ \tau_0]^c </math><br />
*** c... Das Verhältnis der neuen zur alten Dichte<br />
** kann man auch kombinieren zu (Lambert-Beersches Gesetz)<br />
** <math> \tau = [ \tau_0]^{c \cdot w} </math><br />
* Da sich die Transmission Multiplikativ zusammensetzt wird auch gerne mit dem logarithmus der Transmission gerechnet (optische Dichte)<br />
**<math> D = - lg \tau = lg \frac{1}{\tau}</math><br />
** Damit vereinfacht sich das Lambert-Beersche gesetz zu: <math> D = c \cdot w \cdot D_0</math><br />
* selbstverständlich sind die Transmission <math>\tau</math> und die optische Dichte D von der Wellenlänge abhänig ... zur Übersichtlichkeit wurde das in den Formeln nur weggelassen<br />
* Bei einem Papierbild kommt zu dem Filter noch die Reflexion an der Farboberfläche und an der Papieroberfläche<br />
** Beachte das Licht was an der erste Schicht wegreflektiert wird kann icht tiefer eindringen. Nur noch <math> (1-\beta)*S </math> dringt an Licht durch den ersten Filter!<br />
*** <math> \beta </math> ... Remmisionsgrad der ersten Farbe<br />
*** <math> S </math> ... Spektrale Verteilung der Lichtquelle<br />
<br />
= Farbmetrische Schnittstellen - Farbräume (GF a 49 - 55) =<br />
<br />
<pre><br />
Unterschiedliche bildgebende Systeme<br />
z.B. Farbkameras<br />
Farbscanner<br />
Spezialkameras<br />
</pre><br />
'''Widerspruch''' <math>\updownarrow</math> Farbmetrische Schnittstelle<br />
<pre><br />
Unterschiedliche Bildwiedergabesysteme<br />
"True-Color-Darstellung"<br />
- unterschiedliche Monitore, Beamer, Drucker etc.<br />
</pre><br />
<br />
== Leuchtdichte (Luminanz) ==<br />
<br />
* Luminanz Y ist die Strahlungsleistung, bewertet mit der spektralen Empfindlichkeitsfunktion des Auges für das Hellempfinden<br />
* Y ist Leistungsproportional, wenn Lichtzusammensetzung (Leistungsdichte <math>\Theta (\lambda))</math> konstant bleibt<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* Leuchtdichte berechnet sich nach dem ''Abneyschen Gesetz'':<br />
: <math> Y = L = k \cdot \underline L^T \cdot \underline F </math><br />
:* <math>\underline L^T - </math> Leuchtdichtebeiwert: gibt an wie groß der Beitrag jedes Farbwertes der Farbvalenz zum Helleindruck ist, abhängig vom gewählten Farbwiedergabesystem<br />
* Leuchtdichte L <math>\ne</math> Intensität I<br />
: <math> I = \frac 1 3 (R+G+B)</math><br />
<br />
* die perzeptuelle Antwort unseres Auges auf die Leuchtdichte wird Helligkeit (Lightness) genannt<br />
: <math><br />
L^{\star} = \begin{cases}<br />
116 \cdot \sqrt [3] {\frac Y {Y_n}} -16, & \text{wenn } \frac Y {Y_n} > 0{,}008856\\<br />
903{,}3 \cdot {\frac Y {Y_n}}, & \text{wenn } \frac Y {Y_n} \le 0{,}008856<br />
\end{cases}<br />
</math><br />
<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: Eine Quelle die nur 18% der Luminanz einer Referenz hat, erscheint uns immer noch halb so hell wie die Referenz </span><br />
<br />
== Gammakorrektur und Luma ==<br />
* '''Gammakorrektur:'''<br />
** Aufgrund der Ansteuerung von CRT Monitoren und der verwendeten Phosphore ergibt sich ungefähr eine quadratische Abhängigkeit der Luminanz vom Videosignal<br />
** Die Luminaz der drein einzelnen Farbkanäle muss den gleichen Verlauf aufweisen. Sie dürfen sich nur in ihren Maximalwerten unterscheiden!<br />
*** Sonst ist es nicht möglich die Helligkeit zu ändern und dabei die Farbe konstant zu halten<br />
** Die Gammakorrektur sorgt dafür das die Farbwiedergabe auf dem Monitor linear verläuft und nicht quadratisch<br />
*** Notwendig damit wir die gleich Wahrnehmung erzielen können als währe das Kamera-Monitor System nicht vorhanden<br />
<br />
*'''Luma:'''<br />
** Luma ist die gewichtete Summe der drei Gammakorregierten Farbwerte R',G',B'<br />
** Damit ist Luma nicht gleich Luminanz<br />
<br />
*'''Brightness'''<br />
** Brightness ist ein Begriff der beschreibt wie stark eine Fläche Licht emmitiert oder sie hell sie erscheint<br />
** Besitzt kein festes Maß und wird daher sehr frei verwendet -> HSL<br />
<br />
== Farbsysteme, Farbräume, reduzierte Farbräume ==<br />
* Die Intensität einer Farbe ist <math> I = \frac{R + G +B}{3} </math><br />
* Wählt man die Intensität konstant mit <math>I=\frac{1}{3}</math> so ergibt sich eine Ebene die den RGB-Farb Würfel Diagonal schneidet und durch die R,G,B Eckpunkte geht<br />
* Jede Farbkoordinate kann auf diese Ebene projeziert werden -> Ermöglicht die Nutzung dieser Ebene als einfache Farbtafel<br />
** Diese Ebene kann dann noch auf die 0RG- Fläche des RGB Würfels projeziert werden ohne das die Ordnung der Farben gestört werden würde -> Der Farbton einer Farbe lässt sich allein durch r und g beschreiben<br />
* in die rg-Ebene können nun alle in RGB - darstellbaren Farben und alles existierenden Farben eingetragen werden<br />
** Danach erkennt man das sich technisch mit dem RGB-System nur ein kleiner Teil der exisiterenden Farben realisieren lässt<br />
<br />
= Das Normvalenz- oder XYZ-System (GF a 76 - 86) =<br />
* Alle Farbwerte sollen durch positive Farbwerte darstellbar sein<br />
** Für Farbmessung von Interesse<br />
** Das XYZ- Dreieck muss den spektralen Kurvenzug voll umschließen<br />
* Eine weitere Forderung ist das die Leuchtdichte als unabhängige Komponete auftreten soll<br />
* Die Fläche des Dreiecks soll so klein wie möglich sein<br />
* Die dadurch berechnbaren Normalvalenzen sind physikalisch nicht erzeugbar -> Die Spektralwertkurven für das System müssen berechnet werden<br />
** Die Berechneten Spektralwertkurven sind stets nichtnegativ -> immer positive Transmissionsgrade und Sensorempfindlichkeiten<br />
[[Bild:NORMXYZ1.JPG]]<br />
* Mit dem XYZ-System kann man nun Farbdreiecke vergleichen und Bewerten<br />
** Abstände, Fehler und Systemeigenschaften sollten aber in einem empfindungsmäßig gleichabständigen Farbraum bewertet werden (u'v'w' und CIELab)<br />
* '''Optimalfarbkörper'''<br />
** Beschreibt die Grenze aller darstellbaren Körperfarben<br />
** Zur Erstellung schneidet man rechteckförmige Stückchen aus dem Spektrum von Idealweißem Licht aus<br />
<br />
== Das UVW-System ==<br />
* Informationsgehalt der Farbe für den Menschen hängt davon ab welche Farbunterschiede er wahrnehmen kann<br />
* Vor allem ist das interessant wenn Bildverarbeitungsprobleme auf der menschlichen Wahrnehmung formuliert sind<br />
* xy-Farbtafel hat starke Unterschiede zwischen örtlichen Abstenden und empfindungsmäßigen Abständen -> ungeeignet<br />
* erste Lösung<br />
** lineare Transformation<br />
** W' -> Helligkeit<br />
** U' -> Rot-Grün Bundheit<br />
** V' -> Gelb-Blau Bundheit<br />
** Ergebnis<br />
*** Wesentlich besseres Darstellung der Empfindung (Faktor 10 gegenüber dem XYZ-System)<br />
* verbesserte Lösung<br />
** verwenden einer nicht linearen Abbildung (Auge wird mit berücksichtigt)<br />
<br />
== L*a*b* oder CIELAB-Raum ==<br />
* Gegenfarbmodell<br />
* empfindungsmäßig gleichabständiger Raum<br />
* Grundsätzlich zur Angabe von Farbabweichungen verwendet<br />
** Geeignet zur Bewertung von Druckern, Monitoren und Abweichungen von Nachfärbungen<br />
* als Farbdifferenzmaß wird der euklidische Abstand benutzt (<1 nicht mehr Wahrnehmbar)<br />
<br />
== L*u*v* oder CIELUV ==<br />
* für additive Mischung vorgesehen<br />
* wie der CIELAB- Raum ein empfindungsmäßiger gleichabständiger Raum<br />
<br />
== YCbCr - Crominanzwertsystem ==<br />
* Entwickelt damit Farbfernsehen und S/W-Fernsehen Parallel betrieben werden konnten<br />
* Crominanzwerte<br />
** sind von Leuchtdichte befreite Werte<br />
** verschwinden für alle unbunten Farben<br />
** Cr= R-Y, Cg = G-Y, Cb = B-Y<br />
** Das System aus CrCbCg und Y ist überbestimmt => Es reicht die Übetragung von Cr , Cb und Y<br />
* Da das Auge auf Helligkeitsunterschiede empfindlicher reagiert als auf Farbunterschiede können die Crominanzwerte mit geringerer Auflösung übertragen werden<br />
<br />
== ΘSY - System ==<br />
* Der Bunttonwinkel Θ berechnet sich aus dem Verhältnis der Crominanzwerte Cb und Cr<br />
* Die Sättigung S ist der Betrag des Vektors CrCb<br />
<br />
== HSI - Farbraum ==<br />
* Intensität: <math> I= \frac{R+G+B}{3} </math><br />
* Sättigung: <math> S = 1 - 3 \cdot min (r,g,b) </math><br />
* Hue: <math> H= \left\{ \begin{matrix}\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B\le G \\ 2\pi -\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B>G \end{matrix}\right . </math><br />
* Raum ist nicht gleichmäßig gefüllt<br />
* bei kleinen Intensitäten I in Buntton und Sättigung Instabil<br />
* Es kann bei Farbmanipulationen dazu führen das es keine Entsprechungen im RGB gibt<br />
** Lösungen:<br />
*** Dachförmige Begrenzung des HSI Raums -> sehr Aufwendig<br />
*** Normieren der Intensitäten -> Bild kann ins dunkle verschoben werden<br />
*** Maximalwert setzen -> Falsche Farbwerte (werden ins unbunte verschoben)<br />
*** proportionales skalieren bis Farbe im RGB-Würfel liegt<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
<br />
== HSL - Farbraum ==<br />
* Gern für Computergrafik verwendet<br />
* einfache Beziehungen<br />
* Die Verwendeten Biegriffe H,S,L entsprechen nicht der Bedeutung in der Farblehre und Form des Raumes<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
* Buntton ist extrem instabil bei kleinen Sättigungen<br />
* Form des Raumes ist unpraktisch<br />
<br />
= Farbmessung (GF 1 - 11) =<br />
<br />
* Farbmessung = Ermittlung der drei zu einer Farbvalenz gehörigen Farbmaßzahlen<br />
* 3 Messmethoden: <br />
** Vergleichsmethode oder Gleichheitsverfahren<br />
** Spektralverfahren<br />
** Dreibereichsverfahren<br />
<br />
== Gleichheitsverfahren ==<br />
<br />
* Vergleiche:<br />
** Vorlage mit additivem Gemisch<br />
** Vorlage mit Farbmusterkarten (DIN-Karten)<br />
* unverzichtbar bei physiologischen Untersuchungen<br />
* aufwendig und bei kleinen Probandengruppen ungenau<br />
* d.h. für technische Messungen ohne Bedeutung<br />
<br />
'''Messbedingungen nach DIN:'''<br />
* helladaptiertes und blendfreies Sehen<br />
* unbunter Messraum<br />
* neutrale Gesichtsfeldumgebung mit gleicher oder etwas kleinerer Leuchtdichte als im Messfeld<br />
* gut ausgeruhtes und neutral gestimmtes Auge<br />
* farbnormalsichtiger Beobachter<br />
<br />
== Spektralverfahren ==<br />
<br />
* zu messende Farbvalenz = Summe spektraler Farbvalenzen<br />
* greift auf gemessene Normspektralwertkurven zurück<br />
<br />
# '''spektrale Messung zur Ermittlung der Farbreizfunktion <math>\varphi (\lambda) </math>'''<br />
#* Selbststrahler: direkte Messung der Strahlungsfunktion <math>\rightarrow \varphi (\lambda)= S (\lambda)</math><br />
#* remittierende Vorlage: Remissionsfunktion der Vorlage messen, d.h. Strahlungsfunktion S ist vorher zu bestimmen und aus <math>\varphi (\lambda)</math> heraus zu rechnen <math>\rightarrow \varphi (\lambda)= \beta (\lambda) \cdot S (\lambda)</math><br />
# '''farbvalenzmetrische Auswertung'''<br />
#* wenn <math>\beta (\lambda)</math> ermittelt wurde, kann jede beliebige (tabellierte) Lichtquelle <math>S^{\ast} (\lambda)</math>eingesetzt werden<br />
#: <math><br />
\begin{bmatrix}<br />
X\\Y\\Z<br />
\end{bmatrix}<br />
= k \cdot<br />
\begin{bmatrix}<br />
\int \bar{x} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{y} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{z} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda<br />
\end{bmatrix}<br />
</math><br />
#* Normierungskonstante k:<br />
#** Selbststrahler: nur Farbwertanteile gefragt, d.h. k ist beliebig<br />
#** Körperfarben: Y für mattweißen Körper = 100, d.h. <math>k=\frac{100}{\int {S(\lambda) \cdot \bar{y}(\lambda) d \lambda}}</math><br />
<br />
'''Messgeometrien:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bildergalerie (45°,8°,Transmission) </span><br />
<br />
* ''45°-Geometrie'': Beleuchtung unter 45° schließt Glanzeinfluss aus <math>\rightarrow</math> Sensor blickt senkrecht auf Probe<br />
* ''8°-Geometrie'': Beleuchtung diffus über Ulbricht-Kugel <math>\rightarrow</math> Sensor blickt unter 8° auf Probe; Messung mit/ohne Glanz möglich<br />
* ''Transmissionsgeometrie'': Probe wird durchleuchtet<br />
<br />
== Dreibereichsverfahren ==<br />
* die drei Farbwerte werden direkt photometrisch gemessen<br />
* Filter und spektrale Empfindlichkeite der Strahlungsempfänger müssen an die spektrale Bewertungsfunktion angepasst sein<br />
* '''Luther-Bedingung:''' <math> \tau_x(\lambda) = \frac{c_x \cdot x(\lambda)}{s_1(\lambda)}</math><br />
** <math> \tau_x(\lambda) </math> ... Filtertransmission<br />
** <math>s_1(\lambda)</math> ... Sensorempfindlichkeit (hier im ersten Kanal)<br />
** <math>c_x</math> ... Gerätekonstante<br />
** Für den Y und Z Kanal ist die Formel analog<br />
* Der notwendige Filter kann gut durch ein Set von Schmalbandigen Filtern realisiert werden<br />
<br />
== Spektralmaskenverfahren ==<br />
<br />
* spezielles Dreibereichsverfahren<br />
* Lichtzerlegung erfolgt mit einem Prisma<br />
* Das zerlegte Lich beleuchtet eine Maske (Papier, Plaste, Metal .... ne richtige echte Maske)<br />
* Messen der spektralen Verteilung (CCD-Zeile)<br />
* Ähnlich dem Spektralverfahren nur das das spektrum bereits im analogen entsprechend gewichtet wird<br />
<br />
== Metamerie ==<br />
* zwei Farbproben die bei einer bestimmten Beleuchtung gleich aussehen können bei einer anderen Beleuchtung ganz anderst aussehen<br />
* Der Metermarie-Index beschreibt diesen durch Beleuchtungswechsel entstehenden Farbwechsel<br />
* KEIN Maß für die Farbkonstantheit sondern für den Unterschied von zwei Proben<br />
* Berechnung erfolgt im L*a*b* Raum <br> <math> M_T = \sqrt {(L_{1T}-L_{2T}+L_{2B}-L_{1B})^2 +(a_{1T}-a_{2T}+a_{2B}-a_{1B})^2+(b_{1T}-b_{2T}+b_{2B}-b_{1B})^2 } </math><br />
** T ... Testlicht<br />
** B ... Bezugslicht<br />
** 1,2 ... Probennummern<br />
<br />
= Klassifikation von Messaufgaben (GF 82 - 86) =<br />
<br />
# Messung von objektiven Eigenschaften, die sich in der Veränderung spektraler Charakteristika niederschlagen<br />
#* vordergründig ist Zusammenhang zwischen Veränderungen in den physikalischen Eigenschaften von Interesse (z.B. Waferinspektion)<br />
#* Zusammenhang sollte eindeutig und von hinreichender Empfindlichkeit sein<br />
#* Wahrnehmung unterschiedlicher Farben eher Nebeneffekt<br />
# Überwachung der Stabilität von farblichen Erscheinungen<br />
#* ist bei einer oder mehreren Beleuchtungen zu überwachen<br />
#* absolute Farbmessung nicht nötig; "Anlernen" auf Farben genügt<br />
#* Abstände im Farbempfinden müssen sich in gleicher Weise in Veränderungen der Sensorsignale wiederspiegeln<br />
# absolute Farbmessung<br />
#* d.h. Ermittlung der korrekten Farbvalenz unter beliebigen Messbedingungen<br />
#* Spektralwertkurven müssen realisiert werden<br />
# Messung des spektralen Remissions- und/oder Transmissionsverhaltens von Materialien<br />
#* ausschließlich spektrale Messverfahren<br />
#* Messung der Strahlungsfunktion und der remittierten Leistungsdichte<br />
#* Berechnung der Farbvalenz bei beliebiger Beleuchtung und des Metamerie-Index<br />
<br />
'''steigende Ansprüche mit steigender Nummerierung'''<br />
<br />
= Einfache Farbkalibrierung (GF 16 - 41) =<br />
* Farben sollen möglichst exakt Wiedergegeben werden<br />
<br />
== Ausgleich von Beleuchtungseinflüssen ==<br />
* Körperfarben werden durch ihre Remmision bestimmt <math> \beta </math><br />
* Bei unterschiedlicher Beleuchtung sehen Farben unterschiedlich aus aber das Auge kann sich an die Beleuchtung adaptieren<br />
** Funktioniert bei Fotos aber nicht -> Beleuchtungsausgleich ist wichtig<br />
** Bei Farbvergleich noch viel mehr<br />
** Wird realisiert durch Weißabgleich (auf integraler Farbebene nicht möglich )<br />
* Direkte Vermessung der spektralen Eingenschaften der Kamera nicht möglich (Da Werte in Kamera bereits verrechnet werden um z.B. die negativen Anteile der Spektralkurven zu realisieren)<br />
** sehr Aufwendig (Kamera auseinanderbasteln um an die echten werte zu kommen + das durchgehen durch das Spektrum in kleinen Schritten)<br />
* Daher Verwendung von Testfarben<br />
** Führt auf Lösung eines linearen Gleichungssystem<br />
** Für menschliches empfinden -> Optimieren im CIELAB-Raum<br />
* Vorsicht bei nichtlinearen Funktionen zur Farbkalibrierung -> Kann bei zu wenig Testfarben zu total falschen Ergebnissen führen !!<br />
<br />
= Color Management (F CM 1 - 20) =<br />
* verschiedene Geräte können verschiedenen Farben darstellen<br />
* verschiedene Geräte verwenden andere Grundfarben zum mischen<br />
* Mit Hilfe von Profilen (Tabellierung der Farbwerteumrechnungen) wird eine Konvertierung der Farben vom Geräteraum in den CIELab Raum bzw umgekehrt durchgeführt<br />
* in den Profilen wird auch vermerkt welche Farben darstellbar sind und welche nicht<br />
* Somit kann man eine "Druckvorschau" auch auf einem Monitor erreichen (natürlich nur für Farben die auf beiden Geräten dargestellt werden können)<br />
** Jedes Mapping der Farben (Gamut-Mapping stellt somit einen Kompromiss dar)<br />
**# Perceptual (Die Farbbeziehungen untereinander werden erhalten) Komprimierung des Gamuts bis er in den zur Darstellung verwendeten passt<br />
**# Colometrisch -> Exakte Reproduktion aller in beiden Gamuts darstellbaren Farben<br />
**## relativ -> weiß wird auf weiß abgebildet und alle anderen Farben relativ dazu<br />
**## absoult farbmetrisch<br />
**# Saturation, alle Farben außerhalb des Zielgamuts werden zugunsten der Sättiung verändert<br />
* Kalibrierung -> Versetzen des Gerätes in einen definierten, reproduzierbaren Zustand<br />
* Charakterisierung -> Modellierung eines Gerätes welches sich ein einem stabilen definierten Zustand befindet<br />
<br />
= Kameras (GF_Ka 1 - 12) =<br />
<br />
'''Einsatzfelder:'''<br />
* ortsaufgelöste Messung von Farbe<br />
* Aufnahme und Wiedergabe von True-Color Bildern<br />
* Aufnahme farbiger oder mehrkanaliger Bilder für die Verarbeitung/Analyse (Qualitätssicherung)<br />
* Photogrammetrische Anwendungen (Lösung des Korrespondenzproblems)<br />
* Radiometrische Anwendungen (Messen im Spektralbereich)<br />
<br />
'''Dreibereichsmessung:'''<br />
* setzt die Trennung von drei sich überlappenden Spektralbereichen voraus, die dann wellenlängenabhängig zu bewerten und zu integrieren sind<br />
<br />
== Dreichip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* optische Kanaltrennung und Bewertung<br />
* beste Bildqualität, da hohe Auflösung in allen drei Kanälen<br />
* keinen örtlichen Versatz der Pixel in den drei Farbauszügen<br />
* Filter einfacher und präziser zu realisieren<br />
* befinden sich z.B. als dichroitische Spiegel auf den Strahteilerprismen<br />
<br />
<span style="color:#ee0000;"> \\ Hot-Mirror-, Cold-Mirror-Korrektur????</span><br />
<br />
== Einchip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: doppelte Anzahl grüner Pixel wegen Schärfe, MTF des Auges </span><br />
<br />
* örtliche Kanaltrennung und Bewertung<br />
* Streifen- oder Mosaikfilterstrukturen auf den einzelnen Pixeln zur örtlichen Signaltrennung<br />
* 3 oder 4 unterschiedliche spektrale Auszuüge zur Erzeugung der Farbinformation<br />
* Matrix selbst kann Interline- oder Frame-Transfer-Matrix sein<br />
* kostengünstiger und kleiner als Dreichip-Kameras<br />
* Probleme:<br />
** Farbvalenzen aus örtlich versetzten Auszügen (z.B. Farbsäume an Kanten)<br />
** nicht korrigierbare Fehler aus Nichtlinearitäten und Dunkelsignalen bei der Bildung von Mischsignalen<br />
<br />
'''generelle Anforderungen an die Signalverarbeitung:'''<br />
<br />
* primäre Kamerasignale stellen keine farbmetrische Schnittstelle zur Verfügung, d.h. alle Bewertungsfunktionen sind nicht-negativ (Spektralwertkurven fordern aber negative Wichtungen)<br />
* je nach realisierten Filtern und Genauigkeitsansprüchen <math>\rightarrow</math> lineare Matrizierung (meist Kameraintern) oder komplexere Approximation<br />
* bei hohen Genauigkeitsansprüchen <math>\rightarrow</math> Umgehung der Kamerainternen Matrizierung, weil Verstärkungsfaktoren, Toleranzen, Temperaturdrift, Langzeitstabilität etc. nicht bekannt sind<br />
* insgesamt geringe Nichtlinearitäten der CCD's können in den Ansteuerbereichen der einzelnen Kanäle zu wesentlichen Fehlern führen:<br />
** Farbvalenz ändert sich kontinuirlich mit der Shutterzeit<br />
** Pixelweise DSNU- (Dunkelsignalungleichförmigkeit) und PRNU- (Hellsignalungleichförmigkeit) Korrektur vor Erzeugung der Farbvalenz erforderlich, da sich Festmusterrauschen nicht nur auf Intensität sondern auch auf Farbart auswirkt<br />
** Dunkelsignal verdoppelt sich alle 7K, Gleichanteil wird aber geklemmt<br />
** Lichtquellentyp und Langzeitverhalten wirken sich nicht nur Intensität sondern auch auf Farbtemperatur aus<br />
<br />
'''4 spektrale Bereiche:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* vorteilhaft zur Erzeugung von Farbdifferenzsignalen für die TV-Kompatibilität<br />
* im Field-Integration-Mode werden Mischsignale gebildet, die die erforderliche Signalkorrektur für hohe Ansprüche behindern<br />
* Nichtlinearität der Ausgangsverstärker wirkt sich auf Korrektur der primären Mischsignale aus<br />
<br />
== Sequentielle Einchip-Kamera ==<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* zeitliche Kanaltrennung und Bewertung<br />
* relativ genaue Approximation der Spektralwertkurven möglich<br />
<br />
== Elektrisch steuerbare Filter ==<br />
<br />
* über die Wellenlängenabhängigkeit der Eindringtiefe der Photonen und die Steuerbarkeit der Tiefe der Potentialmulden der sensoren lassen sich steuerbare spektrale Empfindlichkeiten erzeugen<br />
<br />
= Verarbeitung von Farbbildern (1 - 31) =<br />
* Das unabhängige verarbeiten der Farbkanäle eines Farbbildes führt zu Nebeneffekten wie Farbsäume<br />
* Die höhere Vielfalt des mehrdimensionalen Raumes von Farbbildern kann Vorteilhaft genutzt werden für Pixelklassifikation, Segmentierung <br />
* Abstände, Mittlere Werte und örtliche Veränderungen sind in empfindungsmäßig gleichabständigen Räumen zu definieren und zu bewerden<br />
<br />
== Histogramme und Statistiken für Farbbilder ==<br />
* Farbbilder liefern dreidimensionale Häufigkeitsverteilungen im Farbraum → können als Approximation der entsprechenden 3D-Dichten verwendet werden<br />
* statistische Zusammenhänge zwischen den Kanälen werden in mehrdimensionalen Dichten betrachtet<br />
** Für Handauswertung meist nur 2D-Dichten, wegen der Übersicht<br />
** Für maschinelle Auswertung können diese dichten auch dreidimensional werden<br />
** für die parametrische Darstellung der Cluster werden meist multivariante Gaußverteilungen eingesetzt<br />
*** Einr Gaußverteilung ist für die Beschreibung eines Bildes mit mehreren Objekten nicht geeignet<br />
*** Die Kovarianzmatrix einer solchen "Approximation" kann aber gut zur Einschätzung der Streuung und der Mittelwerte in dem Bild eingesetzt werden<br />
<br />
=== Histogramm - Modifikationen ===<br />
* Contrast Streching, Polygonal Image Scaling, Histogram-Equalisation Siehe [[Grundlagen der Bildverarbeitung und Mustererkennung#homogene Punktoperationen|Grundlagen der Bildverarbeitung]]<br />
* Manipulation kann in verschiedenen Farbräumen ausgeführt werden (RGB,HSI,...)<br />
** In nicht empfindungsmäßig gleichabständigen Räumen muss die Transformation nicht unbedingt zum Ziel führen<br />
==== Manipulation im Farbraum RGB ====<br />
* ist der Farbraum in dem die Daten häufig vorliegen<br />
* Wirkung kann auf Grund der starken korrelation der RGB Werte bei geringen Sättigungen ausbleiben<br />
* Farbverfälschung wenn einzelne Kompontenen unabhänig von einander behandelt werden<br />
* hohes apriori-Wissen notwendig<br />
* wenn Falschfarbdarstellung gewünscht ist kann dies das mittel der Wahl sein<br />
<br />
==== Manipulationen im Farbraum HSI ====<br />
* unproblematisch in Bezug auf Farbverfälschungen<br />
* Zielsetzungen können sich einfacher beschreiben lassen (ähnelt der Beschreibung von Farbe durch den Menschen)<br />
* unabhängige Komponente (Intensität)<br />
* Kontrastverbesserung durch Sättigungsausgleich ohne Farbveränderung möglich<br />
* Stabilitätsprobleme nahe den unbunten Farben<br />
# '''Ausgleich des Intensitätshistogramms'''<br />
#* Werte möglich die keine entsprechung mehr im RGB haben → müssen geeignet herruntergerechnet werden<br />
#* bei kleinen Intensitäten sind die Bunttöne instabil → ausschließen von Veränderungen<br />
# '''Sättigungsausgleich'''<br />
#* Modifikation der Sättigung unter Beibehaltung des Bunttones<br />
#* Bei kleinen Sättigungen und kleinen Intensitäten ist der Buntton instabil → Ausschließen<br />
#* Histogramm über alle Bunttöne ist häufig verschmiert → besser Histogramm über Buntton Segmente<br />
# '''Bunttonausgleich'''<br />
#* Ziel sind Farbfalschbilder um Objekte besser unterscheiden zu können<br />
#* bei zu großen Buntton Änderungen wird die Interpretierbarkeit nur bei homogenen Flächen verbessert, meist wird sie eher verschlechtert<br />
#* Unsicherheit des Bunttons → bei geringen Sättigungen und Intensitäten ist der Buntton auszuschließen<br />
<br />
== segmentgesteuerte Farbvalenztransformationen ==<br />
* Globale Statistiken werden häufig durch nicht interressante Objekte dominiert<br />
* Ausweg ist das Betrachten von Ausschnitten und anwenden der Transformationen auf die Ausschnitte<br />
* erfordert zu erst das Segmentieren des Bildes<br />
<br />
= Referenzfreie Farbadaption auf Basis des 3D-Histogramms (HuS 32 - 39 ) =<br />
* unter bestimmten umständen kann auf eine Kalibrierung der Kamera mittels Referenzfarben verzichtet werden<br />
* Zur Korrektur soll die parametrische Approximation der 3D-Histogramme durch multivariante Gaußverteilungen genutzt werden<br />
== Vorraussetzungen für die Anwendbarkeit ==<br />
* Strukturierte Szene mit mehreren ntürlichen Objekten, die gleichmäßig über den Bunttonwinkel verteilt sind und durchschnittlichen Sättigungsgrad aufweisen<br />
* Langgestreckter SW-Prozess im Vergleich zum Rot-Grün und Blau-Gelb Prozess<br />
<br />
== Vorgehensweise ==<br />
* Korregieren von "vermutlichen" Abweichungen des Bildes in der Unbuntheitsachse<br />
* Dazu Ermitteln der Hauptachsen mit PCA<br />
* Drehen der Hauptachse in den SW-Prozess<br />
* Rücktransformation und Darstellung<br />
<br />
= Histogrammbasiertes Farbmatching(1 - 15) =<br />
* Histogramme sind im 2D Bild invariant gegenüber Rotation, Translation und Maßstab (wenn die Angaben relativ erfolgen !)<br />
* Histogramme sind auch relativ stabil gegenüber moderaten Verdeckungen und 3D-Rotation<br />
* Grobe Quantisierung der Histogramme um Fehlertoleranz zu erhöhen<br />
* Damit können Histogramme zur Objekterkennung eingesetzt werden → Bezeichnet als Color Indexing<br />
<br />
== uniformes Binning ==<br />
* einteilen der Farben in ein gleichverteiltes Histogramm<br />
* Suche in einem Bild den Ausschnitt welcher eine minimale Distanz zum Referenzbild hat<br />
* Als Abstandsmaß verwendet werden die Histogramme genutzt<br />
** Summe der Quadratischen Differenzen (Histogramme als Vektoren betrachtet und dann den euklidischen Abstand berechnet ohne Wurzel)<br />
** Earth Movers Distance (Berechnen was sich wohinverteilt haben könnte ... erfordert die Lösung des Transportproblems)<br />
* einfach aber die Bins ändern sich Sprunghaft, vor allem dann wenn Farben knapp an den willkürlichen Bingrenzen liegen<br />
<br />
== Unscharfe Chroma-Orts-Histogramme ==<br />
* Nachteile des uniformen Binning sollen überwunden werden<br />
* Alle Pixel bekommen eine unscharfe Klassenzugehörigkeit (Binnzugehörigkeit) je nach Abstand zum entsprechenden Binnmittelpunkt (wie bei [[Softcomputing|Fuzzy-C-Means]])<br />
** Ein Parameter ermöglicht dabei die Verunschärfung einzustellen (von total unscharf bis zum festen Binning)<br />
* Auch der absolute Ort der Segmente (aus denen die Histogramme erstellt werden) soll mit verwendet werden<br />
** Dazu wird das Bild in entsprechende Bereiche geteilt (8x8,16x16,...)<br />
** Alle Blöcke werden durchnnummeriert<br />
** Auch hier kommt es zu harten Umbrüchen wenn Pixel knapp an den Grenzen liegen → auch hier verunschärfen<br />
** Welche Indizees haben die Nachbarn? (Nachbarschaft in den Indizees der Blöcke heißt nicht gleich 2D-Nachbarschaft)<br />
<br />
== Cluster mittels Graphenansatz ==<br />
* Ziel ist es:<br />
** Sprunghafte Änderung der Binns zu verhindern<br />
** wenige Merkmale zu verwenden<br />
** Eng beieinander liegende Maxima trotzdem unterscheiden zu können<br />
* Verwendete Bilddaten:<br />
** Farbwinkelhistogramm, wenn Sättigung der Farben ausreichend ist<br />
** Intensitätsdiagramm, wenn Sättigung der Farben zu gering wird<br />
* Vorgehen:<br />
** Jeder Wert im Histogramm zeigt auf den Größten in seiner Nachbarschaft<br />
** Das Maximum zeigt auf sich selbst → Wird Merkmal<br />
** Weiteres Merkmal ist die Fläche die zum Maximum gehört (Nachbarn die direkt bzw. indirekt auf das entsprechende Maximum zeigen)<br />
* Match:<br />
** Finde ein Tupelpaar (Maxima in Referenzhistogram und Suchhistogram mit dem geringsten Abstand)<br />
** Ziehe gemeinsame Fläche von jedem Tupel des Paares ab<br />
** summiere gemeinsame Fläche (?)<br />
** Wiederhole bis sich keine Tupelpaare mehr bilden lassen<br />
** beziehe die laufende Summe auf das Maximum der Summe der ursprünglichen Flächen<br />
<br />
= Störunterdrückung (SU 1 - 16) =<br />
* Für nachfolgende Verarbeitungsschritte ist die Störunterdrückung sehr wichtig<br />
* Verschiedene verfahren der Rauschunterdrückung sind in [[Grundlagen der Bildverarbeitung und Mustererkennung#Lokale Operatoren zur Bildverbesserung (LOa 1 - 44) |BV]] eingeführt worden<br />
<br />
== Störunterdrückung durch Faltungsfilter ==<br />
* Anwendung wird einfach vektoriell durchgeführt (als würde man drei unabhängige Bilder gleichzeitig Filtern wollen)<br />
* es entstehen neue Farbtöne an den Übergängen zwischen Farben<br />
* im HSI Farbraum ist eine getrennte Betrachtung der Farbe und der Sättigung/Intensität möglich<br />
* Buntton ist zyklisch → muss bei der Mittelung beachtet werden<br />
* in der Farbe kann stärker gemittelt werden als in der Helligkeit (Auge nimmt Farbveränderungen schlechter wahr)<br />
* Komplexe Zahlen bieten sich hier als Rechenmittel an<br />
<br />
== adaptive gewichtete Mittelung ==<br />
* detailerhaltende Fähigkeiten von Filtern wegen der Farbsäume besonders von Interesse<br />
* Abstände verkomplizieren sich im Vergleich zu Grauwertbildern (Vektorabstandsmaße, Winkeldifferenzen,...) <br />
* Vorgehen nach dem Berechnen des Abstandes dann wieder Analog zur Grauwertfilterung<br />
<br />
== Medianfilterung ==<br />
* Problem bei der Übertragung des Rangordnungsgedankens auf Vektoren<br />
** Komponentenweises Vorgehen ist nicht geeignet (absolute Farbverfälschungen möglich)<br />
** Suche des besten Vertreters des SETS (wenn der verwendete Media im SET ist werden keine zu falschen Farben gewählt/gesetzt)<br />
*** kleinste Abstandssumme zu allen anderen Pixeln<br />
<br />
== Kombination von Averaging und Medianfilterung ==<br />
* Medianfilter ist gut für Impulsrauschen, schlecht bei Gauß hier ist Average gut<br />
* Bei den Filtern gibt es keinen unterschied zu den Grauwertbildern (unterschied besteht nur in der Realisierung der verwendeten Media/Average Filter nicht in ihrere Kombination)<br />
<br />
== Vektor-Richtungs-Filter ==<br />
* '''Basic Vecotr Directional Filter'''<br />
** Winkel zwischen Farbvalenzen als Distanzmaß<br />
** Ergebnis ist die Farbvalenz mit der kleinsten Winkeldifferenzsumme zu allen Valenzen des Fensters<br />
** Achromatische Rauschkomponenten werden nicht beseitigt<br />
* '''Generalized Vector Directional Filter '''<br />
** Suche nach den besten Vektoren aus Sicht der Richtung<br />
** Medianfilterung der Beträge der Vektoren<br />
* '''Directional Distance Filter'''<br />
** Vermeiden der Ineffizenz des GVDF Filters durch ein gemischtes Distanzmaß (Betrag und Winkel gleichzeitig)<br />
<br />
= Kantendetektion in Farbbildern (1 - 21) =<br />
* Wichtig für Segmentierung, Bildanalyse und Bildverstehen<br />
* [[Grundlagen der Bildverarbeitung und Mustererkennung#Kantendetektion (LK 1 - 38)| Kantenfilter]] bereits aus BV bekannt<br />
# '''Vektrogradient'''<br />
#* Berechnen der Jacobi-Matrix<br />
#* Wurzel aus dem größten Eigenwert ist der Vektorgradient<br />
#* Extrem Rechenaufwendig<br />
# '''Mittelwert der Richtungsableitungen'''<br />
#* Entspricht dem Gradienten im Intensitätsbild<br />
#* Zwei engegengesetzte Gradienten in unterschiedlichen Farben können sich gegenseitig aufheben → der Gradient der dritten Farbe dominiert egal wie klein er ist<br />
# '''Maximaler Gradient'''<br />
#* Suche nach dem Gradienten mit dem größten Betrag<br />
#* Korrelation der einzelnen Gradienten ist nicht von Bedeutung<br />
<br />
= Farbpixelklassifikation (Farbpixelklassifikation 1 - 21) =<br />
* Die Farbvalenzen bilden die Merkmale der Pixel<br />
* Anzustrebende Eigenschaften<br />
** Gute Beschreibung der Klassencluster und gute Trenneigenschaften<br />
** Einfache Belehrbarkeit (Aus Beispielen oder Expertenwissen)<br />
** Echtzeitfähigkeit<br />
** möglichst frühe Stufe der Verarbeitungskette ("Anspruchslosigkeit an das Bild")<br />
** Nutzen von Klassenzugehörigkeitsmaßen<br />
<br />
== optimaler Klassifikator ==<br />
* basiert auf dem Bayes-Theorem<br />
* findet die optimale Klassenentscheidung<br />
* Jeder Datenpunkt wird in die Klasse eingeordnet zur der er am Wahrscheinlichsten gehöhrt und bei der er die kleinsten Kosten für die anderen Klassen verursacht<br />
** Benötigt eine Risikofunktion die Angibt wie groß die Kosten bei Fehlklassifikation zwischen zwei Klassen sind<br />
*** Meist unbekannt und deswegen wird davon ausgegangen das die Kosten für jede Fehlklassifizierung gleich sind<br />
*** Kosten können durchaus auch bei richtiger Klassifikation definiert werden<br />
** Benötigt die Wahrscheinlichkeitsverteilung der Klassen im Raum (Meist unbekannt → Problem)<br />
*** können beliebig sein werden aber meist durch Gaußfunktionen approximiert<br />
*** in der Lernphase werden die Parameter dieser Verteilung geschätzt<br />
* Da Wahrscheinlichkeitsverteilung meist unbekannt ist, wird der Klassifikator ehr genutzt um einen anderen Klassifikator zu bewerten, wenn man eine bestimmt Wahrscheinlichkeitsverteilung festlegt (wie optimal ist der andere Klassifiaktor)<br />
<br />
== Maximum-Likliehood-Klassifikator ==<br />
* im Ansatz wie optimaler Klassifikator<br />
* setzten der Risikofunktion für alle Fehlklassifikationen auf einen konstanten Wert<br />
* verwenden von multivarianten Gaußdichten zur Beschreibung der Klassen<br />
* Entscheidung wird nur noch nach der a posteriori Wahrscheinlichkeit und der Klassen Verteilung gefällt<br />
<br />
== Malanobis-Abstandsklassifiaktor ==<br />
* schränkt den optimalen Klassifikator noch weiter ein im vergleich zum MLK Klassifikator<br />
* Kostenfunktion für Fehlklassifikation ist konstant für alle Fehlklassifikationen<br />
* Die a posteriorie Wahrscheinlichkeit für das auftreten der Klassen sein für alle Klassen gleich<br />
* Die Kovarianzmatrizen der Gaußverteilung der Klassen sind ähnlich<br />
* Damit ist die zuordnung zu den Klassen nur noch vom Abstand zu den Klassenzentren bestimmt<br />
** Abstandsmaß ist die Mahalanobis-Distanz<br />
<br />
== Gaußklassifikator und Kernel-Densitiy-Klassifikator ==<br />
* schränken noch weiter ein<br />
# '''Gaußklassifikator'''<br />
#* keine Kovarianzen mehr in der klassen Verteilung → Kugelförmige Klassenverteilungen<br />
# '''Kernel-Density-Klassifikator'''<br />
#* Spezialfall von Gauß-Mischverteilungen<br />
#* [... was genau der Macht frage ich in der Konsultation mal nach ... im Skript steht nix brauchbares]<br />
<br />
== LUT-Klassifikator ==<br />
* direktes Verwenden der Stichprobenhistogramme<br />
* erforder Closing im Merkmalsraum da nicht alles durch die Stichproben abgedeckt werden wird<br />
<br />
= Clusterverfahren (Farbpixelklassifikation 19 - 45) =<br />
<br />
= Segmentierung (Seg 1 - 8) =<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Grundlagen_der_Farbbildverarbeitung&diff=6990Grundlagen der Farbbildverarbeitung2009-03-17T09:29:32Z<p>DarkGhost: /* Malanobis-Abstandsklassifiaktor */</p>
<hr />
<div>Link zum [http://www.zbs-ilmenau.de/intern/vip-toolkit/index.php Vip toolkit]<br />
= Einführung (GF_a 8 - 47) =<br />
<br />
== Geschichtliches zur Farbe ==<br />
<br />
=== Newton ===<br />
<br />
* 1672: New Theory about Light and Colours<br />
** Sonnenlicht = Mischung einzelner Farben<br />
** Spektralfarben sind objektive Eigenschaft des Lichtes<br />
<br />
[...]<br />
<br />
=== Goethe ===<br />
<br />
[...]<br />
<br />
== Begriff der Farbe ==<br />
<br />
* '''Farbe im engeren Sinn, stellt eine spezielle menschliche Sinneswahrnehmung dar'''<br />
* <math>\Phi_i = \int_{\Delta \lambda_i} \varphi_{\lambda} (\lambda) d \lambda</math><br />
* Leistungsdichte <math>\phi (\lambda)</math> stellt dagegen den Farbreiz dar, der die Farbempfindung hervorruft<br />
* Vektoren <math>\underline \Phi</math> sind je nach Dimension mehr oder minder genaue Approximationen des Farbreizes<br />
<br />
* Orientierung am menschlichen visuellen System und die Betrachtung psychologischer und physiologischer Grundlagen sind von Interesse:<br />
** zur richtigen Bewertung der Schwierigkeiten und Herausforderungen bei der Schaffung technischer Lösungen<br />
** zur Anpassung technischer Lösungen der Bildwiedergabe an das visuelle System<br />
** zur Nutzung optimaler Naturprinzipien für technische Lösungen<br />
** weil technische Systeme im allgemeinen auf dem inneren Modell des Menschen von der Welt beruhen und dieses Modell in hohem Maße durch den visuellen Kanal des Menschen beeinflusst ist<br />
** weil optoelektronische Sensoren, Bildverarbeitung und Bildanalyse wichtige Schnittstellen zwischen Mensch und Maschine darstellen<br />
**weil viele Objekteigenschaften durch visuelle Eindrücke beschrieben werden<br />
<br />
* menschliches Auge kann ca. 100 Graustufen / ca. 300 000 Farben unterscheiden<br />
<br />
* Drei grundsätzliche Anwendungen von Farbinformation:<br />
** Pseudokolorierung<br />
** Falschfarbendarstellung<br />
** Echtfarbdarstellung (True Color) <math>\rarr</math> hier Schwerpunkt<br />
<br />
== Farbtäuschung ==<br />
<br />
* Zuordnung zwischen Physik und Wahrnehmung nur eindeutig wenn bunte Dinge isoliert betrachtet werden<br />
* Werden bunte Objekte in bunte Umgebungen eingebettet/bewegt, dann können abweichende Farbwahrnehmungen auftreten, so genannte Farbtäuschungen<br />
* es existieren unterschiedliche Arten solcher Täuschungen:<br />
** ''Farbinduktion oder simultaner Farbkontrast'' (Farbe wird durch ihre Umgebung modifiziert)<br />
** ''Farbkonflikt'' (es konkurrieren verschiedene Sehinformationen miteinander)<br />
** ''Subjektive Farben'' (es werden bunte Farbtöne wahrgenommen, die nicht vorliegen)<br />
<br />
'''Simultaner Farbkontrast:'''<br />
* erstmals 1839 beschrieben<br />
* wo der Effekt entsteht (Auge, Cortex) ist unklar<br />
<br />
'''Farbinduktion:'''<br />
* bei kleinteiligen, sich wiederholenden Strukturen erfolgt Angleichung<br />
* kann zur Rauschunterdrückung oder zur Unterdrückung von Feintexturen zugunsten der Erkennung größerer Objekte wichtig sein<br />
<br />
'''Farbkonflikt:'''<br />
* Formen und Strukturen konkurrieren mit Farben ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf White'sche Illusion])<br />
<br />
'''Subjektive Farben:'''<br />
* durch Bewegung ist es möglich Farben zu erzeugen die ursprünglich nicht vorhanden waren ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf Drehwurm in Farbe])<br />
<br />
== Farbwahrnehmung beim Menschen ==<br />
<br />
[...]<br />
<br />
=== Rezeptive Wahrnehmung ===<br />
* 1807 stellte Young die Hypothese auf das Farbsehen auf drei Arten von Sinneszellen beruht (rout,grün,blau)<br />
* erst 1964 konnten dies bewiesen werden, durch die Messung der Absorptionsspektren<br />
*[[Datei:Pdt-kurven.svg]]<br />
<br />
=== Postrezeptive Wahrnehmung ===<br />
* Mit dem 3 Farbenmodell konnten einige psychologische Erscheinungen nicht erklärt werden<br />
** Es werden 4 Farben als besonderst "rein" empfunden (Rto, Geln,Grün, Blau)<br />
** Unbunte Farben werden werden als das fehlen von Farben wahrgenommen<br />
** Schwarz schein gleichberechtigt zu Weiß<br />
** keine wahrgenommene Farbe erscheint zugleich rötlich und grün<br />
* das führte zur Gegenfarbentheorie die anfangs nur Psychologisch begründet war 1958 aber physiologisch Nachgewiesen werden konnte<br />
** Rot - Grün<br />
** Gelb - Blau<br />
** Schwarz - Weiß<br />
* → CIELab-Farbraum<br />
<br />
=== Kortikale Kodierung ===<br />
* Weder die 3 Farbentheorie noch die Gegenfarbentheorie beschreiben die bewusste Wahrnehmung des Menschen<br />
* Deshalb erweitertes Modell<br />
** Farbton / Buntton beschreibt die als besonderst rein empfundenen Spektralfarben<br />
** Sättigung beschreibt wie stark eine Farbe verblasst ist<br />
** Helligkeit beschreibt, wie hell oder dunkel eine Farbe ist<br />
* Wo/Wie genau die neuronale Verarbeitung erfolgt, ist noch nicht sicher belegt<br />
<br />
== Die Ordnung in der Welt der Farben ==<br />
* Newton kannte die Wellenlänge noch nicht → er ordnete die Farben nach dem Regenbogen<br />
* Goethe verwendete das Gegenfarbenmodell<br />
* Munsell schlug 1905 ein Farbordnungssystem vor bei dem alle Abstände zwischen den Farben Empfindungsmäßig gleich sind<br />
** führt zu einem geometrisch nicht regelmäßigen Körper<br />
<br />
== Das Modell der Farbe ==<br />
* '''Definition'''<br />
** Farbe ist diejenige Gesichtsempfindung eines dem Auge strukturlos erscheinenden Teils eines Gesichtsfeldes durch die sich diser Teil bei einäugiger Betrachtung mit unbewegtem Auge von einem gleichzeitig gesehenen ebenfalls strukturlos angrenzendem Bezirk allein unterscheidet (unbunte Farben: Schwarz, Weiß und Graustufen, bunte Farben: Helligkeit; Buntheit setzt sich aus Buntton und Farbsättigung zusammen)<br />
** Farbe ist durch Helligkeit, Buntton, Sättigung eindeutig bestimmt → 3D Modell<br />
*** drei linear unabhängige Größen<br />
*** Additive Mischung zur Reproduktion von Farbe (aus Rot, Grün, Blau)<br />
*** drei linearunabhängige Größen spannen immer einen Raum auf → Rot,Grün und Blau werden die Achsen dieses Raumes<br />
<br />
=== Farbvalenz ===<br />
* Mit unserem Modell läßt sich jede Farbe als linearkombination unserer drei Basisvektoren aufschreiben<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
** <math> \vec F</math> ... Farbvalenz<br />
** <math> \vec r, \vec g, \vec b </math> ... die drei Basisvektoren die den Raum aufspannen (Rot, Grün und Blau)<br />
** <math> R,G,B, |\vec F| </math> ... die Farbwerte<br />
** <math> \vec r \cdot R, \vec g \cdot G, \vec b \cdot B </math> ... die drei Primärvalenzen<br />
* Ermittelt werden die Farbwerte mit Hilfe der Vergleichsmethode<br />
** Eine Person vergleicht ein Target mit einer Farbe die aus den drei Primärvalenzen gemischt wird<br />
** wenn die Empfindung der beiden Farben gleich ist, dann notieren wir die Werte<br />
* Innere Farbmischung<br />
** das Target wird mit weißen Licht beleuchtet und wir drehen nur an dem Farbmischgerät<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
* Äußere Farbmischung<br />
** Wir beleuchten das Target mit farbigen Lichte<br />
**<math> \vec F+ B \cdot \vec b = R \cdot \vec r + G \cdot \vec g \rightarrow \vec F = R \cdot \vec r + G \cdot \vec g - B \cdot \vec b</math><br />
<br />
=== Farbreizmetrik ===<br />
* Die Farbreizfunktion <math> \varphi_\lambda</math> beschreibt die spektrale Zusammensetzung der Farbempfindungen<br />
*# Selbstleuchtende Objekte<br />
*#* <math> S_\lambda (\lambda)</math> beschreibt die spektrale Verteilung der Quelle<br />
*#* Wahrnehmung: <math> \varphi_\lambda = S_\lambda</math><br />
*# Auflicht Vorlagen<br />
*#* <math>\beta_\lambda(\lambda)</math> beschreibt den spektralen Remisionsgrad der Vorlage<br />
*#* Wahrnehmung: Licht reflektiert von der Vorlage <math> \varphi_\lambda = S_\lambda \cdot \beta_\lambda</math><br />
*# Durchlichtvorlagen<br />
*#* <math>\tau_\lambda(\lambda)</math> spektraler Transmissionsgrad der Vorlage<br />
*#* Wahrnehmung von Licht welches die Vorlage durchdrungen hat <math>\varphi_\lambda= S_\lambda \cdot \tau_\lambda</math><br />
* Damit haben folgende Faktoren Auswirkung auf die Wahrgenommene Farbe<br />
*# Die Beleuchtung des Objektes (Spektrale Zusammensetzung des Lichtes der Lampe)<br />
*# Das Remmisionsverhalten der beleuchteten Oberfläche<br />
*# Die wellenlängenabhängige Empfindlichkeit der drei Zapfen des Auges<br />
* Es besteht die Möglichkeit die pdt Kurven direkt zur Beschreibung des Farbempfindens zu nutzen<br />
* Die Farbwerte könnte man dann wie folgt ermitteln: <math> \left(\begin{matrix}P\\D\\T\end{matrix}\right)=k\int_{380\mathit{nm}}^{780\mathit{nm}}\varphi (\lambda )\cdot \left(\begin{matrix}p(\lambda )\\d(\lambda )\\t(\lambda )\end{matrix}\right)d\lambda </math><br />
* Für die technische Darstellung von Farbe werden allerdings R,G,B werte benötigt<br />
* Die dafür notwendigen Spektralwertkurven können mit Hilfe der Vergleichsmethode ermittelt werden<br />
* Man erhält damit folgende Kurven<br />
[[Datei:SpektralwertfunktionenRGB.jpg]]<br />
* Mit der gleichen Formel wie bei der pdt Kurve lassen sich nun die R,G,B Werte rechnerisch ermitteln<br />
<br />
== Farbanalyse, Zusammenhang mit der Farbwidergabe ==<br />
* Das Kammera - Monitor System soll die Farbe exakt wiedergeben<br />
* Der Monitor verwendet EBU Phosphore für die Farbdarstellung<br />
** haben selbst Spektralwert kurven => keine Monochromatischen Lichter mehr<br />
* Die notwendigen spektralwertkurven die die Kamera realisieren muss um die Bilder auf dem Monitor exakt darzustellen lassen sich mit Hilfe der pdt Kurven herleiten (Über forderung der Gleicheit der Farben)<br />
* Sie besitzen stark negative Anteile => Auch die Filter der Kamera müssten negative Transsmissionsgrade besitzen<br />
** technisch ist das nicht möglich<br />
* es bleibt also nur die Möglichkeit die notwendigen Parameter zur Ansteuerung des Monitors aus positive one-peak Kurven zu berechnen<br />
<br />
== Subtraktive Farbmischung ==<br />
* Die Subtraktive Farbmischung lässt sich auf die Multiplikation der Transmissionsgrade zurückführen (ein Filter lässt 50% rotes licht durch, wenn man zwei dieser Filter hintereinander legt, dann geht nur noch 25% rotes Licht durch die Anordnung (0.5*0.5 = 0.25) )<br />
* wenn <math> \tau_0 </math> die Transmission eines Filters für die normierte Dicke 1 und die normiert Dichte 1 ist dann kann man<br />
** mit dem Lambertschen Absorbtionsgesetzt die Absortption von dickern/düneren Material berechnen <br> <math> \tau = [ \tau_0]^w </math><br />
*** w ... Dicke des Materials im Verhältnis zum norm Material<br />
** mit dem Beerschen Gesetz die Transmission von Meterial mit anderer Dichte berechnen <br><math> \tau = [ \tau_0]^c </math><br />
*** c... Das Verhältnis der neuen zur alten Dichte<br />
** kann man auch kombinieren zu (Lambert-Beersches Gesetz)<br />
** <math> \tau = [ \tau_0]^{c \cdot w} </math><br />
* Da sich die Transmission Multiplikativ zusammensetzt wird auch gerne mit dem logarithmus der Transmission gerechnet (optische Dichte)<br />
**<math> D = - lg \tau = lg \frac{1}{\tau}</math><br />
** Damit vereinfacht sich das Lambert-Beersche gesetz zu: <math> D = c \cdot w \cdot D_0</math><br />
* selbstverständlich sind die Transmission <math>\tau</math> und die optische Dichte D von der Wellenlänge abhänig ... zur Übersichtlichkeit wurde das in den Formeln nur weggelassen<br />
* Bei einem Papierbild kommt zu dem Filter noch die Reflexion an der Farboberfläche und an der Papieroberfläche<br />
** Beachte das Licht was an der erste Schicht wegreflektiert wird kann icht tiefer eindringen. Nur noch <math> (1-\beta)*S </math> dringt an Licht durch den ersten Filter!<br />
*** <math> \beta </math> ... Remmisionsgrad der ersten Farbe<br />
*** <math> S </math> ... Spektrale Verteilung der Lichtquelle<br />
<br />
= Farbmetrische Schnittstellen - Farbräume (GF a 49 - 55) =<br />
<br />
<pre><br />
Unterschiedliche bildgebende Systeme<br />
z.B. Farbkameras<br />
Farbscanner<br />
Spezialkameras<br />
</pre><br />
'''Widerspruch''' <math>\updownarrow</math> Farbmetrische Schnittstelle<br />
<pre><br />
Unterschiedliche Bildwiedergabesysteme<br />
"True-Color-Darstellung"<br />
- unterschiedliche Monitore, Beamer, Drucker etc.<br />
</pre><br />
<br />
== Leuchtdichte (Luminanz) ==<br />
<br />
* Luminanz Y ist die Strahlungsleistung, bewertet mit der spektralen Empfindlichkeitsfunktion des Auges für das Hellempfinden<br />
* Y ist Leistungsproportional, wenn Lichtzusammensetzung (Leistungsdichte <math>\Theta (\lambda))</math> konstant bleibt<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* Leuchtdichte berechnet sich nach dem ''Abneyschen Gesetz'':<br />
: <math> Y = L = k \cdot \underline L^T \cdot \underline F </math><br />
:* <math>\underline L^T - </math> Leuchtdichtebeiwert: gibt an wie groß der Beitrag jedes Farbwertes der Farbvalenz zum Helleindruck ist, abhängig vom gewählten Farbwiedergabesystem<br />
* Leuchtdichte L <math>\ne</math> Intensität I<br />
: <math> I = \frac 1 3 (R+G+B)</math><br />
<br />
* die perzeptuelle Antwort unseres Auges auf die Leuchtdichte wird Helligkeit (Lightness) genannt<br />
: <math><br />
L^{\star} = \begin{cases}<br />
116 \cdot \sqrt [3] {\frac Y {Y_n}} -16, & \text{wenn } \frac Y {Y_n} > 0{,}008856\\<br />
903{,}3 \cdot {\frac Y {Y_n}}, & \text{wenn } \frac Y {Y_n} \le 0{,}008856<br />
\end{cases}<br />
</math><br />
<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: Eine Quelle die nur 18% der Luminanz einer Referenz hat, erscheint uns immer noch halb so hell wie die Referenz </span><br />
<br />
== Gammakorrektur und Luma ==<br />
* '''Gammakorrektur:'''<br />
** Aufgrund der Ansteuerung von CRT Monitoren und der verwendeten Phosphore ergibt sich ungefähr eine quadratische Abhängigkeit der Luminanz vom Videosignal<br />
** Die Luminaz der drein einzelnen Farbkanäle muss den gleichen Verlauf aufweisen. Sie dürfen sich nur in ihren Maximalwerten unterscheiden!<br />
*** Sonst ist es nicht möglich die Helligkeit zu ändern und dabei die Farbe konstant zu halten<br />
** Die Gammakorrektur sorgt dafür das die Farbwiedergabe auf dem Monitor linear verläuft und nicht quadratisch<br />
*** Notwendig damit wir die gleich Wahrnehmung erzielen können als währe das Kamera-Monitor System nicht vorhanden<br />
<br />
*'''Luma:'''<br />
** Luma ist die gewichtete Summe der drei Gammakorregierten Farbwerte R',G',B'<br />
** Damit ist Luma nicht gleich Luminanz<br />
<br />
*'''Brightness'''<br />
** Brightness ist ein Begriff der beschreibt wie stark eine Fläche Licht emmitiert oder sie hell sie erscheint<br />
** Besitzt kein festes Maß und wird daher sehr frei verwendet -> HSL<br />
<br />
== Farbsysteme, Farbräume, reduzierte Farbräume ==<br />
* Die Intensität einer Farbe ist <math> I = \frac{R + G +B}{3} </math><br />
* Wählt man die Intensität konstant mit <math>I=\frac{1}{3}</math> so ergibt sich eine Ebene die den RGB-Farb Würfel Diagonal schneidet und durch die R,G,B Eckpunkte geht<br />
* Jede Farbkoordinate kann auf diese Ebene projeziert werden -> Ermöglicht die Nutzung dieser Ebene als einfache Farbtafel<br />
** Diese Ebene kann dann noch auf die 0RG- Fläche des RGB Würfels projeziert werden ohne das die Ordnung der Farben gestört werden würde -> Der Farbton einer Farbe lässt sich allein durch r und g beschreiben<br />
* in die rg-Ebene können nun alle in RGB - darstellbaren Farben und alles existierenden Farben eingetragen werden<br />
** Danach erkennt man das sich technisch mit dem RGB-System nur ein kleiner Teil der exisiterenden Farben realisieren lässt<br />
<br />
= Das Normvalenz- oder XYZ-System (GF a 76 - 86) =<br />
* Alle Farbwerte sollen durch positive Farbwerte darstellbar sein<br />
** Für Farbmessung von Interesse<br />
** Das XYZ- Dreieck muss den spektralen Kurvenzug voll umschließen<br />
* Eine weitere Forderung ist das die Leuchtdichte als unabhängige Komponete auftreten soll<br />
* Die Fläche des Dreiecks soll so klein wie möglich sein<br />
* Die dadurch berechnbaren Normalvalenzen sind physikalisch nicht erzeugbar -> Die Spektralwertkurven für das System müssen berechnet werden<br />
** Die Berechneten Spektralwertkurven sind stets nichtnegativ -> immer positive Transmissionsgrade und Sensorempfindlichkeiten<br />
[[Bild:NORMXYZ1.JPG]]<br />
* Mit dem XYZ-System kann man nun Farbdreiecke vergleichen und Bewerten<br />
** Abstände, Fehler und Systemeigenschaften sollten aber in einem empfindungsmäßig gleichabständigen Farbraum bewertet werden (u'v'w' und CIELab)<br />
* '''Optimalfarbkörper'''<br />
** Beschreibt die Grenze aller darstellbaren Körperfarben<br />
** Zur Erstellung schneidet man rechteckförmige Stückchen aus dem Spektrum von Idealweißem Licht aus<br />
<br />
== Das UVW-System ==<br />
* Informationsgehalt der Farbe für den Menschen hängt davon ab welche Farbunterschiede er wahrnehmen kann<br />
* Vor allem ist das interessant wenn Bildverarbeitungsprobleme auf der menschlichen Wahrnehmung formuliert sind<br />
* xy-Farbtafel hat starke Unterschiede zwischen örtlichen Abstenden und empfindungsmäßigen Abständen -> ungeeignet<br />
* erste Lösung<br />
** lineare Transformation<br />
** W' -> Helligkeit<br />
** U' -> Rot-Grün Bundheit<br />
** V' -> Gelb-Blau Bundheit<br />
** Ergebnis<br />
*** Wesentlich besseres Darstellung der Empfindung (Faktor 10 gegenüber dem XYZ-System)<br />
* verbesserte Lösung<br />
** verwenden einer nicht linearen Abbildung (Auge wird mit berücksichtigt)<br />
<br />
== L*a*b* oder CIELAB-Raum ==<br />
* Gegenfarbmodell<br />
* empfindungsmäßig gleichabständiger Raum<br />
* Grundsätzlich zur Angabe von Farbabweichungen verwendet<br />
** Geeignet zur Bewertung von Druckern, Monitoren und Abweichungen von Nachfärbungen<br />
* als Farbdifferenzmaß wird der euklidische Abstand benutzt (<1 nicht mehr Wahrnehmbar)<br />
<br />
== L*u*v* oder CIELUV ==<br />
* für additive Mischung vorgesehen<br />
* wie der CIELAB- Raum ein empfindungsmäßiger gleichabständiger Raum<br />
<br />
== YCbCr - Crominanzwertsystem ==<br />
* Entwickelt damit Farbfernsehen und S/W-Fernsehen Parallel betrieben werden konnten<br />
* Crominanzwerte<br />
** sind von Leuchtdichte befreite Werte<br />
** verschwinden für alle unbunten Farben<br />
** Cr= R-Y, Cg = G-Y, Cb = B-Y<br />
** Das System aus CrCbCg und Y ist überbestimmt => Es reicht die Übetragung von Cr , Cb und Y<br />
* Da das Auge auf Helligkeitsunterschiede empfindlicher reagiert als auf Farbunterschiede können die Crominanzwerte mit geringerer Auflösung übertragen werden<br />
<br />
== ΘSY - System ==<br />
* Der Bunttonwinkel Θ berechnet sich aus dem Verhältnis der Crominanzwerte Cb und Cr<br />
* Die Sättigung S ist der Betrag des Vektors CrCb<br />
<br />
== HSI - Farbraum ==<br />
* Intensität: <math> I= \frac{R+G+B}{3} </math><br />
* Sättigung: <math> S = 1 - 3 \cdot min (r,g,b) </math><br />
* Hue: <math> H= \left\{ \begin{matrix}\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B\le G \\ 2\pi -\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B>G \end{matrix}\right . </math><br />
* Raum ist nicht gleichmäßig gefüllt<br />
* bei kleinen Intensitäten I in Buntton und Sättigung Instabil<br />
* Es kann bei Farbmanipulationen dazu führen das es keine Entsprechungen im RGB gibt<br />
** Lösungen:<br />
*** Dachförmige Begrenzung des HSI Raums -> sehr Aufwendig<br />
*** Normieren der Intensitäten -> Bild kann ins dunkle verschoben werden<br />
*** Maximalwert setzen -> Falsche Farbwerte (werden ins unbunte verschoben)<br />
*** proportionales skalieren bis Farbe im RGB-Würfel liegt<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
<br />
== HSL - Farbraum ==<br />
* Gern für Computergrafik verwendet<br />
* einfache Beziehungen<br />
* Die Verwendeten Biegriffe H,S,L entsprechen nicht der Bedeutung in der Farblehre und Form des Raumes<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
* Buntton ist extrem instabil bei kleinen Sättigungen<br />
* Form des Raumes ist unpraktisch<br />
<br />
= Farbmessung (GF 1 - 11) =<br />
<br />
* Farbmessung = Ermittlung der drei zu einer Farbvalenz gehörigen Farbmaßzahlen<br />
* 3 Messmethoden: <br />
** Vergleichsmethode oder Gleichheitsverfahren<br />
** Spektralverfahren<br />
** Dreibereichsverfahren<br />
<br />
== Gleichheitsverfahren ==<br />
<br />
* Vergleiche:<br />
** Vorlage mit additivem Gemisch<br />
** Vorlage mit Farbmusterkarten (DIN-Karten)<br />
* unverzichtbar bei physiologischen Untersuchungen<br />
* aufwendig und bei kleinen Probandengruppen ungenau<br />
* d.h. für technische Messungen ohne Bedeutung<br />
<br />
'''Messbedingungen nach DIN:'''<br />
* helladaptiertes und blendfreies Sehen<br />
* unbunter Messraum<br />
* neutrale Gesichtsfeldumgebung mit gleicher oder etwas kleinerer Leuchtdichte als im Messfeld<br />
* gut ausgeruhtes und neutral gestimmtes Auge<br />
* farbnormalsichtiger Beobachter<br />
<br />
== Spektralverfahren ==<br />
<br />
* zu messende Farbvalenz = Summe spektraler Farbvalenzen<br />
* greift auf gemessene Normspektralwertkurven zurück<br />
<br />
# '''spektrale Messung zur Ermittlung der Farbreizfunktion <math>\varphi (\lambda) </math>'''<br />
#* Selbststrahler: direkte Messung der Strahlungsfunktion <math>\rightarrow \varphi (\lambda)= S (\lambda)</math><br />
#* remittierende Vorlage: Remissionsfunktion der Vorlage messen, d.h. Strahlungsfunktion S ist vorher zu bestimmen und aus <math>\varphi (\lambda)</math> heraus zu rechnen <math>\rightarrow \varphi (\lambda)= \beta (\lambda) \cdot S (\lambda)</math><br />
# '''farbvalenzmetrische Auswertung'''<br />
#* wenn <math>\beta (\lambda)</math> ermittelt wurde, kann jede beliebige (tabellierte) Lichtquelle <math>S^{\ast} (\lambda)</math>eingesetzt werden<br />
#: <math><br />
\begin{bmatrix}<br />
X\\Y\\Z<br />
\end{bmatrix}<br />
= k \cdot<br />
\begin{bmatrix}<br />
\int \bar{x} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{y} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{z} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda<br />
\end{bmatrix}<br />
</math><br />
#* Normierungskonstante k:<br />
#** Selbststrahler: nur Farbwertanteile gefragt, d.h. k ist beliebig<br />
#** Körperfarben: Y für mattweißen Körper = 100, d.h. <math>k=\frac{100}{\int {S(\lambda) \cdot \bar{y}(\lambda) d \lambda}}</math><br />
<br />
'''Messgeometrien:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bildergalerie (45°,8°,Transmission) </span><br />
<br />
* ''45°-Geometrie'': Beleuchtung unter 45° schließt Glanzeinfluss aus <math>\rightarrow</math> Sensor blickt senkrecht auf Probe<br />
* ''8°-Geometrie'': Beleuchtung diffus über Ulbricht-Kugel <math>\rightarrow</math> Sensor blickt unter 8° auf Probe; Messung mit/ohne Glanz möglich<br />
* ''Transmissionsgeometrie'': Probe wird durchleuchtet<br />
<br />
== Dreibereichsverfahren ==<br />
* die drei Farbwerte werden direkt photometrisch gemessen<br />
* Filter und spektrale Empfindlichkeite der Strahlungsempfänger müssen an die spektrale Bewertungsfunktion angepasst sein<br />
* '''Luther-Bedingung:''' <math> \tau_x(\lambda) = \frac{c_x \cdot x(\lambda)}{s_1(\lambda)}</math><br />
** <math> \tau_x(\lambda) </math> ... Filtertransmission<br />
** <math>s_1(\lambda)</math> ... Sensorempfindlichkeit (hier im ersten Kanal)<br />
** <math>c_x</math> ... Gerätekonstante<br />
** Für den Y und Z Kanal ist die Formel analog<br />
* Der notwendige Filter kann gut durch ein Set von Schmalbandigen Filtern realisiert werden<br />
<br />
== Spektralmaskenverfahren ==<br />
<br />
* spezielles Dreibereichsverfahren<br />
* Lichtzerlegung erfolgt mit einem Prisma<br />
* Das zerlegte Lich beleuchtet eine Maske (Papier, Plaste, Metal .... ne richtige echte Maske)<br />
* Messen der spektralen Verteilung (CCD-Zeile)<br />
* Ähnlich dem Spektralverfahren nur das das spektrum bereits im analogen entsprechend gewichtet wird<br />
<br />
== Metamerie ==<br />
* zwei Farbproben die bei einer bestimmten Beleuchtung gleich aussehen können bei einer anderen Beleuchtung ganz anderst aussehen<br />
* Der Metermarie-Index beschreibt diesen durch Beleuchtungswechsel entstehenden Farbwechsel<br />
* KEIN Maß für die Farbkonstantheit sondern für den Unterschied von zwei Proben<br />
* Berechnung erfolgt im L*a*b* Raum <br> <math> M_T = \sqrt {(L_{1T}-L_{2T}+L_{2B}-L_{1B})^2 +(a_{1T}-a_{2T}+a_{2B}-a_{1B})^2+(b_{1T}-b_{2T}+b_{2B}-b_{1B})^2 } </math><br />
** T ... Testlicht<br />
** B ... Bezugslicht<br />
** 1,2 ... Probennummern<br />
<br />
= Klassifikation von Messaufgaben (GF 82 - 86) =<br />
<br />
# Messung von objektiven Eigenschaften, die sich in der Veränderung spektraler Charakteristika niederschlagen<br />
#* vordergründig ist Zusammenhang zwischen Veränderungen in den physikalischen Eigenschaften von Interesse (z.B. Waferinspektion)<br />
#* Zusammenhang sollte eindeutig und von hinreichender Empfindlichkeit sein<br />
#* Wahrnehmung unterschiedlicher Farben eher Nebeneffekt<br />
# Überwachung der Stabilität von farblichen Erscheinungen<br />
#* ist bei einer oder mehreren Beleuchtungen zu überwachen<br />
#* absolute Farbmessung nicht nötig; "Anlernen" auf Farben genügt<br />
#* Abstände im Farbempfinden müssen sich in gleicher Weise in Veränderungen der Sensorsignale wiederspiegeln<br />
# absolute Farbmessung<br />
#* d.h. Ermittlung der korrekten Farbvalenz unter beliebigen Messbedingungen<br />
#* Spektralwertkurven müssen realisiert werden<br />
# Messung des spektralen Remissions- und/oder Transmissionsverhaltens von Materialien<br />
#* ausschließlich spektrale Messverfahren<br />
#* Messung der Strahlungsfunktion und der remittierten Leistungsdichte<br />
#* Berechnung der Farbvalenz bei beliebiger Beleuchtung und des Metamerie-Index<br />
<br />
'''steigende Ansprüche mit steigender Nummerierung'''<br />
<br />
= Einfache Farbkalibrierung (GF 16 - 41) =<br />
* Farben sollen möglichst exakt Wiedergegeben werden<br />
<br />
== Ausgleich von Beleuchtungseinflüssen ==<br />
* Körperfarben werden durch ihre Remmision bestimmt <math> \beta </math><br />
* Bei unterschiedlicher Beleuchtung sehen Farben unterschiedlich aus aber das Auge kann sich an die Beleuchtung adaptieren<br />
** Funktioniert bei Fotos aber nicht -> Beleuchtungsausgleich ist wichtig<br />
** Bei Farbvergleich noch viel mehr<br />
** Wird realisiert durch Weißabgleich (auf integraler Farbebene nicht möglich )<br />
* Direkte Vermessung der spektralen Eingenschaften der Kamera nicht möglich (Da Werte in Kamera bereits verrechnet werden um z.B. die negativen Anteile der Spektralkurven zu realisieren)<br />
** sehr Aufwendig (Kamera auseinanderbasteln um an die echten werte zu kommen + das durchgehen durch das Spektrum in kleinen Schritten)<br />
* Daher Verwendung von Testfarben<br />
** Führt auf Lösung eines linearen Gleichungssystem<br />
** Für menschliches empfinden -> Optimieren im CIELAB-Raum<br />
* Vorsicht bei nichtlinearen Funktionen zur Farbkalibrierung -> Kann bei zu wenig Testfarben zu total falschen Ergebnissen führen !!<br />
<br />
= Color Management (F CM 1 - 20) =<br />
* verschiedene Geräte können verschiedenen Farben darstellen<br />
* verschiedene Geräte verwenden andere Grundfarben zum mischen<br />
* Mit Hilfe von Profilen (Tabellierung der Farbwerteumrechnungen) wird eine Konvertierung der Farben vom Geräteraum in den CIELab Raum bzw umgekehrt durchgeführt<br />
* in den Profilen wird auch vermerkt welche Farben darstellbar sind und welche nicht<br />
* Somit kann man eine "Druckvorschau" auch auf einem Monitor erreichen (natürlich nur für Farben die auf beiden Geräten dargestellt werden können)<br />
** Jedes Mapping der Farben (Gamut-Mapping stellt somit einen Kompromiss dar)<br />
**# Perceptual (Die Farbbeziehungen untereinander werden erhalten) Komprimierung des Gamuts bis er in den zur Darstellung verwendeten passt<br />
**# Colometrisch -> Exakte Reproduktion aller in beiden Gamuts darstellbaren Farben<br />
**## relativ -> weiß wird auf weiß abgebildet und alle anderen Farben relativ dazu<br />
**## absoult farbmetrisch<br />
**# Saturation, alle Farben außerhalb des Zielgamuts werden zugunsten der Sättiung verändert<br />
* Kalibrierung -> Versetzen des Gerätes in einen definierten, reproduzierbaren Zustand<br />
* Charakterisierung -> Modellierung eines Gerätes welches sich ein einem stabilen definierten Zustand befindet<br />
<br />
= Kameras (GF_Ka 1 - 12) =<br />
<br />
'''Einsatzfelder:'''<br />
* ortsaufgelöste Messung von Farbe<br />
* Aufnahme und Wiedergabe von True-Color Bildern<br />
* Aufnahme farbiger oder mehrkanaliger Bilder für die Verarbeitung/Analyse (Qualitätssicherung)<br />
* Photogrammetrische Anwendungen (Lösung des Korrespondenzproblems)<br />
* Radiometrische Anwendungen (Messen im Spektralbereich)<br />
<br />
'''Dreibereichsmessung:'''<br />
* setzt die Trennung von drei sich überlappenden Spektralbereichen voraus, die dann wellenlängenabhängig zu bewerten und zu integrieren sind<br />
<br />
== Dreichip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* optische Kanaltrennung und Bewertung<br />
* beste Bildqualität, da hohe Auflösung in allen drei Kanälen<br />
* keinen örtlichen Versatz der Pixel in den drei Farbauszügen<br />
* Filter einfacher und präziser zu realisieren<br />
* befinden sich z.B. als dichroitische Spiegel auf den Strahteilerprismen<br />
<br />
<span style="color:#ee0000;"> \\ Hot-Mirror-, Cold-Mirror-Korrektur????</span><br />
<br />
== Einchip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: doppelte Anzahl grüner Pixel wegen Schärfe, MTF des Auges </span><br />
<br />
* örtliche Kanaltrennung und Bewertung<br />
* Streifen- oder Mosaikfilterstrukturen auf den einzelnen Pixeln zur örtlichen Signaltrennung<br />
* 3 oder 4 unterschiedliche spektrale Auszuüge zur Erzeugung der Farbinformation<br />
* Matrix selbst kann Interline- oder Frame-Transfer-Matrix sein<br />
* kostengünstiger und kleiner als Dreichip-Kameras<br />
* Probleme:<br />
** Farbvalenzen aus örtlich versetzten Auszügen (z.B. Farbsäume an Kanten)<br />
** nicht korrigierbare Fehler aus Nichtlinearitäten und Dunkelsignalen bei der Bildung von Mischsignalen<br />
<br />
'''generelle Anforderungen an die Signalverarbeitung:'''<br />
<br />
* primäre Kamerasignale stellen keine farbmetrische Schnittstelle zur Verfügung, d.h. alle Bewertungsfunktionen sind nicht-negativ (Spektralwertkurven fordern aber negative Wichtungen)<br />
* je nach realisierten Filtern und Genauigkeitsansprüchen <math>\rightarrow</math> lineare Matrizierung (meist Kameraintern) oder komplexere Approximation<br />
* bei hohen Genauigkeitsansprüchen <math>\rightarrow</math> Umgehung der Kamerainternen Matrizierung, weil Verstärkungsfaktoren, Toleranzen, Temperaturdrift, Langzeitstabilität etc. nicht bekannt sind<br />
* insgesamt geringe Nichtlinearitäten der CCD's können in den Ansteuerbereichen der einzelnen Kanäle zu wesentlichen Fehlern führen:<br />
** Farbvalenz ändert sich kontinuirlich mit der Shutterzeit<br />
** Pixelweise DSNU- (Dunkelsignalungleichförmigkeit) und PRNU- (Hellsignalungleichförmigkeit) Korrektur vor Erzeugung der Farbvalenz erforderlich, da sich Festmusterrauschen nicht nur auf Intensität sondern auch auf Farbart auswirkt<br />
** Dunkelsignal verdoppelt sich alle 7K, Gleichanteil wird aber geklemmt<br />
** Lichtquellentyp und Langzeitverhalten wirken sich nicht nur Intensität sondern auch auf Farbtemperatur aus<br />
<br />
'''4 spektrale Bereiche:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* vorteilhaft zur Erzeugung von Farbdifferenzsignalen für die TV-Kompatibilität<br />
* im Field-Integration-Mode werden Mischsignale gebildet, die die erforderliche Signalkorrektur für hohe Ansprüche behindern<br />
* Nichtlinearität der Ausgangsverstärker wirkt sich auf Korrektur der primären Mischsignale aus<br />
<br />
== Sequentielle Einchip-Kamera ==<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* zeitliche Kanaltrennung und Bewertung<br />
* relativ genaue Approximation der Spektralwertkurven möglich<br />
<br />
== Elektrisch steuerbare Filter ==<br />
<br />
* über die Wellenlängenabhängigkeit der Eindringtiefe der Photonen und die Steuerbarkeit der Tiefe der Potentialmulden der sensoren lassen sich steuerbare spektrale Empfindlichkeiten erzeugen<br />
<br />
= Verarbeitung von Farbbildern (1 - 31) =<br />
* Das unabhängige verarbeiten der Farbkanäle eines Farbbildes führt zu Nebeneffekten wie Farbsäume<br />
* Die höhere Vielfalt des mehrdimensionalen Raumes von Farbbildern kann Vorteilhaft genutzt werden für Pixelklassifikation, Segmentierung <br />
* Abstände, Mittlere Werte und örtliche Veränderungen sind in empfindungsmäßig gleichabständigen Räumen zu definieren und zu bewerden<br />
<br />
== Histogramme und Statistiken für Farbbilder ==<br />
* Farbbilder liefern dreidimensionale Häufigkeitsverteilungen im Farbraum → können als Approximation der entsprechenden 3D-Dichten verwendet werden<br />
* statistische Zusammenhänge zwischen den Kanälen werden in mehrdimensionalen Dichten betrachtet<br />
** Für Handauswertung meist nur 2D-Dichten, wegen der Übersicht<br />
** Für maschinelle Auswertung können diese dichten auch dreidimensional werden<br />
** für die parametrische Darstellung der Cluster werden meist multivariante Gaußverteilungen eingesetzt<br />
*** Einr Gaußverteilung ist für die Beschreibung eines Bildes mit mehreren Objekten nicht geeignet<br />
*** Die Kovarianzmatrix einer solchen "Approximation" kann aber gut zur Einschätzung der Streuung und der Mittelwerte in dem Bild eingesetzt werden<br />
<br />
=== Histogramm - Modifikationen ===<br />
* Contrast Streching, Polygonal Image Scaling, Histogram-Equalisation Siehe [[Grundlagen der Bildverarbeitung und Mustererkennung#homogene Punktoperationen|Grundlagen der Bildverarbeitung]]<br />
* Manipulation kann in verschiedenen Farbräumen ausgeführt werden (RGB,HSI,...)<br />
** In nicht empfindungsmäßig gleichabständigen Räumen muss die Transformation nicht unbedingt zum Ziel führen<br />
==== Manipulation im Farbraum RGB ====<br />
* ist der Farbraum in dem die Daten häufig vorliegen<br />
* Wirkung kann auf Grund der starken korrelation der RGB Werte bei geringen Sättigungen ausbleiben<br />
* Farbverfälschung wenn einzelne Kompontenen unabhänig von einander behandelt werden<br />
* hohes apriori-Wissen notwendig<br />
* wenn Falschfarbdarstellung gewünscht ist kann dies das mittel der Wahl sein<br />
<br />
==== Manipulationen im Farbraum HSI ====<br />
* unproblematisch in Bezug auf Farbverfälschungen<br />
* Zielsetzungen können sich einfacher beschreiben lassen (ähnelt der Beschreibung von Farbe durch den Menschen)<br />
* unabhängige Komponente (Intensität)<br />
* Kontrastverbesserung durch Sättigungsausgleich ohne Farbveränderung möglich<br />
* Stabilitätsprobleme nahe den unbunten Farben<br />
# '''Ausgleich des Intensitätshistogramms'''<br />
#* Werte möglich die keine entsprechung mehr im RGB haben → müssen geeignet herruntergerechnet werden<br />
#* bei kleinen Intensitäten sind die Bunttöne instabil → ausschließen von Veränderungen<br />
# '''Sättigungsausgleich'''<br />
#* Modifikation der Sättigung unter Beibehaltung des Bunttones<br />
#* Bei kleinen Sättigungen und kleinen Intensitäten ist der Buntton instabil → Ausschließen<br />
#* Histogramm über alle Bunttöne ist häufig verschmiert → besser Histogramm über Buntton Segmente<br />
# '''Bunttonausgleich'''<br />
#* Ziel sind Farbfalschbilder um Objekte besser unterscheiden zu können<br />
#* bei zu großen Buntton Änderungen wird die Interpretierbarkeit nur bei homogenen Flächen verbessert, meist wird sie eher verschlechtert<br />
#* Unsicherheit des Bunttons → bei geringen Sättigungen und Intensitäten ist der Buntton auszuschließen<br />
<br />
== segmentgesteuerte Farbvalenztransformationen ==<br />
* Globale Statistiken werden häufig durch nicht interressante Objekte dominiert<br />
* Ausweg ist das Betrachten von Ausschnitten und anwenden der Transformationen auf die Ausschnitte<br />
* erfordert zu erst das Segmentieren des Bildes<br />
<br />
= Referenzfreie Farbadaption auf Basis des 3D-Histogramms (HuS 32 - 39 ) =<br />
* unter bestimmten umständen kann auf eine Kalibrierung der Kamera mittels Referenzfarben verzichtet werden<br />
* Zur Korrektur soll die parametrische Approximation der 3D-Histogramme durch multivariante Gaußverteilungen genutzt werden<br />
== Vorraussetzungen für die Anwendbarkeit ==<br />
* Strukturierte Szene mit mehreren ntürlichen Objekten, die gleichmäßig über den Bunttonwinkel verteilt sind und durchschnittlichen Sättigungsgrad aufweisen<br />
* Langgestreckter SW-Prozess im Vergleich zum Rot-Grün und Blau-Gelb Prozess<br />
<br />
== Vorgehensweise ==<br />
* Korregieren von "vermutlichen" Abweichungen des Bildes in der Unbuntheitsachse<br />
* Dazu Ermitteln der Hauptachsen mit PCA<br />
* Drehen der Hauptachse in den SW-Prozess<br />
* Rücktransformation und Darstellung<br />
<br />
= Histogrammbasiertes Farbmatching(1 - 15) =<br />
* Histogramme sind im 2D Bild invariant gegenüber Rotation, Translation und Maßstab (wenn die Angaben relativ erfolgen !)<br />
* Histogramme sind auch relativ stabil gegenüber moderaten Verdeckungen und 3D-Rotation<br />
* Grobe Quantisierung der Histogramme um Fehlertoleranz zu erhöhen<br />
* Damit können Histogramme zur Objekterkennung eingesetzt werden → Bezeichnet als Color Indexing<br />
<br />
== uniformes Binning ==<br />
* einteilen der Farben in ein gleichverteiltes Histogramm<br />
* Suche in einem Bild den Ausschnitt welcher eine minimale Distanz zum Referenzbild hat<br />
* Als Abstandsmaß verwendet werden die Histogramme genutzt<br />
** Summe der Quadratischen Differenzen (Histogramme als Vektoren betrachtet und dann den euklidischen Abstand berechnet ohne Wurzel)<br />
** Earth Movers Distance (Berechnen was sich wohinverteilt haben könnte ... erfordert die Lösung des Transportproblems)<br />
* einfach aber die Bins ändern sich Sprunghaft, vor allem dann wenn Farben knapp an den willkürlichen Bingrenzen liegen<br />
<br />
== Unscharfe Chroma-Orts-Histogramme ==<br />
* Nachteile des uniformen Binning sollen überwunden werden<br />
* Alle Pixel bekommen eine unscharfe Klassenzugehörigkeit (Binnzugehörigkeit) je nach Abstand zum entsprechenden Binnmittelpunkt (wie bei [[Softcomputing|Fuzzy-C-Means]])<br />
** Ein Parameter ermöglicht dabei die Verunschärfung einzustellen (von total unscharf bis zum festen Binning)<br />
* Auch der absolute Ort der Segmente (aus denen die Histogramme erstellt werden) soll mit verwendet werden<br />
** Dazu wird das Bild in entsprechende Bereiche geteilt (8x8,16x16,...)<br />
** Alle Blöcke werden durchnnummeriert<br />
** Auch hier kommt es zu harten Umbrüchen wenn Pixel knapp an den Grenzen liegen → auch hier verunschärfen<br />
** Welche Indizees haben die Nachbarn? (Nachbarschaft in den Indizees der Blöcke heißt nicht gleich 2D-Nachbarschaft)<br />
<br />
== Cluster mittels Graphenansatz ==<br />
* Ziel ist es:<br />
** Sprunghafte Änderung der Binns zu verhindern<br />
** wenige Merkmale zu verwenden<br />
** Eng beieinander liegende Maxima trotzdem unterscheiden zu können<br />
* Verwendete Bilddaten:<br />
** Farbwinkelhistogramm, wenn Sättigung der Farben ausreichend ist<br />
** Intensitätsdiagramm, wenn Sättigung der Farben zu gering wird<br />
* Vorgehen:<br />
** Jeder Wert im Histogramm zeigt auf den Größten in seiner Nachbarschaft<br />
** Das Maximum zeigt auf sich selbst → Wird Merkmal<br />
** Weiteres Merkmal ist die Fläche die zum Maximum gehört (Nachbarn die direkt bzw. indirekt auf das entsprechende Maximum zeigen)<br />
* Match:<br />
** Finde ein Tupelpaar (Maxima in Referenzhistogram und Suchhistogram mit dem geringsten Abstand)<br />
** Ziehe gemeinsame Fläche von jedem Tupel des Paares ab<br />
** summiere gemeinsame Fläche (?)<br />
** Wiederhole bis sich keine Tupelpaare mehr bilden lassen<br />
** beziehe die laufende Summe auf das Maximum der Summe der ursprünglichen Flächen<br />
<br />
= Störunterdrückung (SU 1 - 16) =<br />
* Für nachfolgende Verarbeitungsschritte ist die Störunterdrückung sehr wichtig<br />
* Verschiedene verfahren der Rauschunterdrückung sind in [[Grundlagen der Bildverarbeitung und Mustererkennung#Lokale Operatoren zur Bildverbesserung (LOa 1 - 44) |BV]] eingeführt worden<br />
<br />
== Störunterdrückung durch Faltungsfilter ==<br />
* Anwendung wird einfach vektoriell durchgeführt (als würde man drei unabhängige Bilder gleichzeitig Filtern wollen)<br />
* es entstehen neue Farbtöne an den Übergängen zwischen Farben<br />
* im HSI Farbraum ist eine getrennte Betrachtung der Farbe und der Sättigung/Intensität möglich<br />
* Buntton ist zyklisch → muss bei der Mittelung beachtet werden<br />
* in der Farbe kann stärker gemittelt werden als in der Helligkeit (Auge nimmt Farbveränderungen schlechter wahr)<br />
* Komplexe Zahlen bieten sich hier als Rechenmittel an<br />
<br />
== adaptive gewichtete Mittelung ==<br />
* detailerhaltende Fähigkeiten von Filtern wegen der Farbsäume besonders von Interesse<br />
* Abstände verkomplizieren sich im Vergleich zu Grauwertbildern (Vektorabstandsmaße, Winkeldifferenzen,...) <br />
* Vorgehen nach dem Berechnen des Abstandes dann wieder Analog zur Grauwertfilterung<br />
<br />
== Medianfilterung ==<br />
* Problem bei der Übertragung des Rangordnungsgedankens auf Vektoren<br />
** Komponentenweises Vorgehen ist nicht geeignet (absolute Farbverfälschungen möglich)<br />
** Suche des besten Vertreters des SETS (wenn der verwendete Media im SET ist werden keine zu falschen Farben gewählt/gesetzt)<br />
*** kleinste Abstandssumme zu allen anderen Pixeln<br />
<br />
== Kombination von Averaging und Medianfilterung ==<br />
* Medianfilter ist gut für Impulsrauschen, schlecht bei Gauß hier ist Average gut<br />
* Bei den Filtern gibt es keinen unterschied zu den Grauwertbildern (unterschied besteht nur in der Realisierung der verwendeten Media/Average Filter nicht in ihrere Kombination)<br />
<br />
== Vektor-Richtungs-Filter ==<br />
* '''Basic Vecotr Directional Filter'''<br />
** Winkel zwischen Farbvalenzen als Distanzmaß<br />
** Ergebnis ist die Farbvalenz mit der kleinsten Winkeldifferenzsumme zu allen Valenzen des Fensters<br />
** Achromatische Rauschkomponenten werden nicht beseitigt<br />
* '''Generalized Vector Directional Filter '''<br />
** Suche nach den besten Vektoren aus Sicht der Richtung<br />
** Medianfilterung der Beträge der Vektoren<br />
* '''Directional Distance Filter'''<br />
** Vermeiden der Ineffizenz des GVDF Filters durch ein gemischtes Distanzmaß (Betrag und Winkel gleichzeitig)<br />
<br />
= Kantendetektion in Farbbildern (1 - 21) =<br />
* Wichtig für Segmentierung, Bildanalyse und Bildverstehen<br />
* [[Grundlagen der Bildverarbeitung und Mustererkennung#Kantendetektion (LK 1 - 38)| Kantenfilter]] bereits aus BV bekannt<br />
# '''Vektrogradient'''<br />
#* Berechnen der Jacobi-Matrix<br />
#* Wurzel aus dem größten Eigenwert ist der Vektorgradient<br />
#* Extrem Rechenaufwendig<br />
# '''Mittelwert der Richtungsableitungen'''<br />
#* Entspricht dem Gradienten im Intensitätsbild<br />
#* Zwei engegengesetzte Gradienten in unterschiedlichen Farben können sich gegenseitig aufheben → der Gradient der dritten Farbe dominiert egal wie klein er ist<br />
# '''Maximaler Gradient'''<br />
#* Suche nach dem Gradienten mit dem größten Betrag<br />
#* Korrelation der einzelnen Gradienten ist nicht von Bedeutung<br />
<br />
= Farbpixelklassifikation (Farbpixelklassifikation 1 - 21) =<br />
* Die Farbvalenzen bilden die Merkmale der Pixel<br />
* Anzustrebende Eigenschaften<br />
** Gute Beschreibung der Klassencluster und gute Trenneigenschaften<br />
** Einfache Belehrbarkeit (Aus Beispielen oder Expertenwissen)<br />
** Echtzeitfähigkeit<br />
** möglichst frühe Stufe der Verarbeitungskette ("Anspruchslosigkeit an das Bild")<br />
** Nutzen von Klassenzugehörigkeitsmaßen<br />
<br />
== optimaler Klassifikator ==<br />
* basiert auf dem Bayes-Theorem<br />
* findet die optimale Klassenentscheidung<br />
* Jeder Datenpunkt wird in die Klasse eingeordnet zur der er am Wahrscheinlichsten gehöhrt und bei der er die kleinsten Kosten für die anderen Klassen verursacht<br />
** Benötigt eine Risikofunktion die Angibt wie groß die Kosten bei Fehlklassifikation zwischen zwei Klassen sind<br />
*** Meist unbekannt und deswegen wird davon ausgegangen das die Kosten für jede Fehlklassifizierung gleich sind<br />
*** Kosten können durchaus auch bei richtiger Klassifikation definiert werden<br />
** Benötigt die Wahrscheinlichkeitsverteilung der Klassen im Raum (Meist unbekannt → Problem)<br />
*** können beliebig sein werden aber meist durch Gaußfunktionen approximiert<br />
*** in der Lernphase werden die Parameter dieser Verteilung geschätzt<br />
* Da Wahrscheinlichkeitsverteilung meist unbekannt ist, wird der Klassifikator ehr genutzt um einen anderen Klassifikator zu bewerten, wenn man eine bestimmt Wahrscheinlichkeitsverteilung festlegt (wie optimal ist der andere Klassifiaktor)<br />
<br />
== Maximum-Likliehood-Klassifikator ==<br />
* im Ansatz wie optimaler Klassifikator<br />
* setzten der Risikofunktion für alle Fehlklassifikationen auf einen konstanten Wert<br />
* verwenden von multivarianten Gaußdichten zur Beschreibung der Klassen<br />
* Entscheidung wird nur noch nach der a posteriori Wahrscheinlichkeit und der Klassen Verteilung gefällt<br />
<br />
== Malanobis-Abstandsklassifiaktor ==<br />
* schränkt den optimalen Klassifikator noch weiter ein im vergleich zum MLK Klassifikator<br />
* Kostenfunktion für Fehlklassifikation ist konstant für alle Fehlklassifikationen<br />
* Die a posteriorie Wahrscheinlichkeit für das auftreten der Klassen sein für alle Klassen gleich<br />
* Die Kovarianzmatrizen der Gaußverteilung der Klassen sind ähnlich<br />
* Damit ist die zuordnung zu den Klassen nur noch vom Abstand zu den Klassenzentren bestimmt<br />
** Abstandsmaß ist die Mahalanobis-Distanz<br />
<br />
= Clusterverfahren (Farbpixelklassifikation 19 - 45) =<br />
<br />
= Segmentierung (Seg 1 - 8) =<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Grundlagen_der_Farbbildverarbeitung&diff=6989Grundlagen der Farbbildverarbeitung2009-03-17T09:23:12Z<p>DarkGhost: /* Maximum-Likliehood-Klassifikator */</p>
<hr />
<div>Link zum [http://www.zbs-ilmenau.de/intern/vip-toolkit/index.php Vip toolkit]<br />
= Einführung (GF_a 8 - 47) =<br />
<br />
== Geschichtliches zur Farbe ==<br />
<br />
=== Newton ===<br />
<br />
* 1672: New Theory about Light and Colours<br />
** Sonnenlicht = Mischung einzelner Farben<br />
** Spektralfarben sind objektive Eigenschaft des Lichtes<br />
<br />
[...]<br />
<br />
=== Goethe ===<br />
<br />
[...]<br />
<br />
== Begriff der Farbe ==<br />
<br />
* '''Farbe im engeren Sinn, stellt eine spezielle menschliche Sinneswahrnehmung dar'''<br />
* <math>\Phi_i = \int_{\Delta \lambda_i} \varphi_{\lambda} (\lambda) d \lambda</math><br />
* Leistungsdichte <math>\phi (\lambda)</math> stellt dagegen den Farbreiz dar, der die Farbempfindung hervorruft<br />
* Vektoren <math>\underline \Phi</math> sind je nach Dimension mehr oder minder genaue Approximationen des Farbreizes<br />
<br />
* Orientierung am menschlichen visuellen System und die Betrachtung psychologischer und physiologischer Grundlagen sind von Interesse:<br />
** zur richtigen Bewertung der Schwierigkeiten und Herausforderungen bei der Schaffung technischer Lösungen<br />
** zur Anpassung technischer Lösungen der Bildwiedergabe an das visuelle System<br />
** zur Nutzung optimaler Naturprinzipien für technische Lösungen<br />
** weil technische Systeme im allgemeinen auf dem inneren Modell des Menschen von der Welt beruhen und dieses Modell in hohem Maße durch den visuellen Kanal des Menschen beeinflusst ist<br />
** weil optoelektronische Sensoren, Bildverarbeitung und Bildanalyse wichtige Schnittstellen zwischen Mensch und Maschine darstellen<br />
**weil viele Objekteigenschaften durch visuelle Eindrücke beschrieben werden<br />
<br />
* menschliches Auge kann ca. 100 Graustufen / ca. 300 000 Farben unterscheiden<br />
<br />
* Drei grundsätzliche Anwendungen von Farbinformation:<br />
** Pseudokolorierung<br />
** Falschfarbendarstellung<br />
** Echtfarbdarstellung (True Color) <math>\rarr</math> hier Schwerpunkt<br />
<br />
== Farbtäuschung ==<br />
<br />
* Zuordnung zwischen Physik und Wahrnehmung nur eindeutig wenn bunte Dinge isoliert betrachtet werden<br />
* Werden bunte Objekte in bunte Umgebungen eingebettet/bewegt, dann können abweichende Farbwahrnehmungen auftreten, so genannte Farbtäuschungen<br />
* es existieren unterschiedliche Arten solcher Täuschungen:<br />
** ''Farbinduktion oder simultaner Farbkontrast'' (Farbe wird durch ihre Umgebung modifiziert)<br />
** ''Farbkonflikt'' (es konkurrieren verschiedene Sehinformationen miteinander)<br />
** ''Subjektive Farben'' (es werden bunte Farbtöne wahrgenommen, die nicht vorliegen)<br />
<br />
'''Simultaner Farbkontrast:'''<br />
* erstmals 1839 beschrieben<br />
* wo der Effekt entsteht (Auge, Cortex) ist unklar<br />
<br />
'''Farbinduktion:'''<br />
* bei kleinteiligen, sich wiederholenden Strukturen erfolgt Angleichung<br />
* kann zur Rauschunterdrückung oder zur Unterdrückung von Feintexturen zugunsten der Erkennung größerer Objekte wichtig sein<br />
<br />
'''Farbkonflikt:'''<br />
* Formen und Strukturen konkurrieren mit Farben ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf White'sche Illusion])<br />
<br />
'''Subjektive Farben:'''<br />
* durch Bewegung ist es möglich Farben zu erzeugen die ursprünglich nicht vorhanden waren ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf Drehwurm in Farbe])<br />
<br />
== Farbwahrnehmung beim Menschen ==<br />
<br />
[...]<br />
<br />
=== Rezeptive Wahrnehmung ===<br />
* 1807 stellte Young die Hypothese auf das Farbsehen auf drei Arten von Sinneszellen beruht (rout,grün,blau)<br />
* erst 1964 konnten dies bewiesen werden, durch die Messung der Absorptionsspektren<br />
*[[Datei:Pdt-kurven.svg]]<br />
<br />
=== Postrezeptive Wahrnehmung ===<br />
* Mit dem 3 Farbenmodell konnten einige psychologische Erscheinungen nicht erklärt werden<br />
** Es werden 4 Farben als besonderst "rein" empfunden (Rto, Geln,Grün, Blau)<br />
** Unbunte Farben werden werden als das fehlen von Farben wahrgenommen<br />
** Schwarz schein gleichberechtigt zu Weiß<br />
** keine wahrgenommene Farbe erscheint zugleich rötlich und grün<br />
* das führte zur Gegenfarbentheorie die anfangs nur Psychologisch begründet war 1958 aber physiologisch Nachgewiesen werden konnte<br />
** Rot - Grün<br />
** Gelb - Blau<br />
** Schwarz - Weiß<br />
* → CIELab-Farbraum<br />
<br />
=== Kortikale Kodierung ===<br />
* Weder die 3 Farbentheorie noch die Gegenfarbentheorie beschreiben die bewusste Wahrnehmung des Menschen<br />
* Deshalb erweitertes Modell<br />
** Farbton / Buntton beschreibt die als besonderst rein empfundenen Spektralfarben<br />
** Sättigung beschreibt wie stark eine Farbe verblasst ist<br />
** Helligkeit beschreibt, wie hell oder dunkel eine Farbe ist<br />
* Wo/Wie genau die neuronale Verarbeitung erfolgt, ist noch nicht sicher belegt<br />
<br />
== Die Ordnung in der Welt der Farben ==<br />
* Newton kannte die Wellenlänge noch nicht → er ordnete die Farben nach dem Regenbogen<br />
* Goethe verwendete das Gegenfarbenmodell<br />
* Munsell schlug 1905 ein Farbordnungssystem vor bei dem alle Abstände zwischen den Farben Empfindungsmäßig gleich sind<br />
** führt zu einem geometrisch nicht regelmäßigen Körper<br />
<br />
== Das Modell der Farbe ==<br />
* '''Definition'''<br />
** Farbe ist diejenige Gesichtsempfindung eines dem Auge strukturlos erscheinenden Teils eines Gesichtsfeldes durch die sich diser Teil bei einäugiger Betrachtung mit unbewegtem Auge von einem gleichzeitig gesehenen ebenfalls strukturlos angrenzendem Bezirk allein unterscheidet (unbunte Farben: Schwarz, Weiß und Graustufen, bunte Farben: Helligkeit; Buntheit setzt sich aus Buntton und Farbsättigung zusammen)<br />
** Farbe ist durch Helligkeit, Buntton, Sättigung eindeutig bestimmt → 3D Modell<br />
*** drei linear unabhängige Größen<br />
*** Additive Mischung zur Reproduktion von Farbe (aus Rot, Grün, Blau)<br />
*** drei linearunabhängige Größen spannen immer einen Raum auf → Rot,Grün und Blau werden die Achsen dieses Raumes<br />
<br />
=== Farbvalenz ===<br />
* Mit unserem Modell läßt sich jede Farbe als linearkombination unserer drei Basisvektoren aufschreiben<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
** <math> \vec F</math> ... Farbvalenz<br />
** <math> \vec r, \vec g, \vec b </math> ... die drei Basisvektoren die den Raum aufspannen (Rot, Grün und Blau)<br />
** <math> R,G,B, |\vec F| </math> ... die Farbwerte<br />
** <math> \vec r \cdot R, \vec g \cdot G, \vec b \cdot B </math> ... die drei Primärvalenzen<br />
* Ermittelt werden die Farbwerte mit Hilfe der Vergleichsmethode<br />
** Eine Person vergleicht ein Target mit einer Farbe die aus den drei Primärvalenzen gemischt wird<br />
** wenn die Empfindung der beiden Farben gleich ist, dann notieren wir die Werte<br />
* Innere Farbmischung<br />
** das Target wird mit weißen Licht beleuchtet und wir drehen nur an dem Farbmischgerät<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
* Äußere Farbmischung<br />
** Wir beleuchten das Target mit farbigen Lichte<br />
**<math> \vec F+ B \cdot \vec b = R \cdot \vec r + G \cdot \vec g \rightarrow \vec F = R \cdot \vec r + G \cdot \vec g - B \cdot \vec b</math><br />
<br />
=== Farbreizmetrik ===<br />
* Die Farbreizfunktion <math> \varphi_\lambda</math> beschreibt die spektrale Zusammensetzung der Farbempfindungen<br />
*# Selbstleuchtende Objekte<br />
*#* <math> S_\lambda (\lambda)</math> beschreibt die spektrale Verteilung der Quelle<br />
*#* Wahrnehmung: <math> \varphi_\lambda = S_\lambda</math><br />
*# Auflicht Vorlagen<br />
*#* <math>\beta_\lambda(\lambda)</math> beschreibt den spektralen Remisionsgrad der Vorlage<br />
*#* Wahrnehmung: Licht reflektiert von der Vorlage <math> \varphi_\lambda = S_\lambda \cdot \beta_\lambda</math><br />
*# Durchlichtvorlagen<br />
*#* <math>\tau_\lambda(\lambda)</math> spektraler Transmissionsgrad der Vorlage<br />
*#* Wahrnehmung von Licht welches die Vorlage durchdrungen hat <math>\varphi_\lambda= S_\lambda \cdot \tau_\lambda</math><br />
* Damit haben folgende Faktoren Auswirkung auf die Wahrgenommene Farbe<br />
*# Die Beleuchtung des Objektes (Spektrale Zusammensetzung des Lichtes der Lampe)<br />
*# Das Remmisionsverhalten der beleuchteten Oberfläche<br />
*# Die wellenlängenabhängige Empfindlichkeit der drei Zapfen des Auges<br />
* Es besteht die Möglichkeit die pdt Kurven direkt zur Beschreibung des Farbempfindens zu nutzen<br />
* Die Farbwerte könnte man dann wie folgt ermitteln: <math> \left(\begin{matrix}P\\D\\T\end{matrix}\right)=k\int_{380\mathit{nm}}^{780\mathit{nm}}\varphi (\lambda )\cdot \left(\begin{matrix}p(\lambda )\\d(\lambda )\\t(\lambda )\end{matrix}\right)d\lambda </math><br />
* Für die technische Darstellung von Farbe werden allerdings R,G,B werte benötigt<br />
* Die dafür notwendigen Spektralwertkurven können mit Hilfe der Vergleichsmethode ermittelt werden<br />
* Man erhält damit folgende Kurven<br />
[[Datei:SpektralwertfunktionenRGB.jpg]]<br />
* Mit der gleichen Formel wie bei der pdt Kurve lassen sich nun die R,G,B Werte rechnerisch ermitteln<br />
<br />
== Farbanalyse, Zusammenhang mit der Farbwidergabe ==<br />
* Das Kammera - Monitor System soll die Farbe exakt wiedergeben<br />
* Der Monitor verwendet EBU Phosphore für die Farbdarstellung<br />
** haben selbst Spektralwert kurven => keine Monochromatischen Lichter mehr<br />
* Die notwendigen spektralwertkurven die die Kamera realisieren muss um die Bilder auf dem Monitor exakt darzustellen lassen sich mit Hilfe der pdt Kurven herleiten (Über forderung der Gleicheit der Farben)<br />
* Sie besitzen stark negative Anteile => Auch die Filter der Kamera müssten negative Transsmissionsgrade besitzen<br />
** technisch ist das nicht möglich<br />
* es bleibt also nur die Möglichkeit die notwendigen Parameter zur Ansteuerung des Monitors aus positive one-peak Kurven zu berechnen<br />
<br />
== Subtraktive Farbmischung ==<br />
* Die Subtraktive Farbmischung lässt sich auf die Multiplikation der Transmissionsgrade zurückführen (ein Filter lässt 50% rotes licht durch, wenn man zwei dieser Filter hintereinander legt, dann geht nur noch 25% rotes Licht durch die Anordnung (0.5*0.5 = 0.25) )<br />
* wenn <math> \tau_0 </math> die Transmission eines Filters für die normierte Dicke 1 und die normiert Dichte 1 ist dann kann man<br />
** mit dem Lambertschen Absorbtionsgesetzt die Absortption von dickern/düneren Material berechnen <br> <math> \tau = [ \tau_0]^w </math><br />
*** w ... Dicke des Materials im Verhältnis zum norm Material<br />
** mit dem Beerschen Gesetz die Transmission von Meterial mit anderer Dichte berechnen <br><math> \tau = [ \tau_0]^c </math><br />
*** c... Das Verhältnis der neuen zur alten Dichte<br />
** kann man auch kombinieren zu (Lambert-Beersches Gesetz)<br />
** <math> \tau = [ \tau_0]^{c \cdot w} </math><br />
* Da sich die Transmission Multiplikativ zusammensetzt wird auch gerne mit dem logarithmus der Transmission gerechnet (optische Dichte)<br />
**<math> D = - lg \tau = lg \frac{1}{\tau}</math><br />
** Damit vereinfacht sich das Lambert-Beersche gesetz zu: <math> D = c \cdot w \cdot D_0</math><br />
* selbstverständlich sind die Transmission <math>\tau</math> und die optische Dichte D von der Wellenlänge abhänig ... zur Übersichtlichkeit wurde das in den Formeln nur weggelassen<br />
* Bei einem Papierbild kommt zu dem Filter noch die Reflexion an der Farboberfläche und an der Papieroberfläche<br />
** Beachte das Licht was an der erste Schicht wegreflektiert wird kann icht tiefer eindringen. Nur noch <math> (1-\beta)*S </math> dringt an Licht durch den ersten Filter!<br />
*** <math> \beta </math> ... Remmisionsgrad der ersten Farbe<br />
*** <math> S </math> ... Spektrale Verteilung der Lichtquelle<br />
<br />
= Farbmetrische Schnittstellen - Farbräume (GF a 49 - 55) =<br />
<br />
<pre><br />
Unterschiedliche bildgebende Systeme<br />
z.B. Farbkameras<br />
Farbscanner<br />
Spezialkameras<br />
</pre><br />
'''Widerspruch''' <math>\updownarrow</math> Farbmetrische Schnittstelle<br />
<pre><br />
Unterschiedliche Bildwiedergabesysteme<br />
"True-Color-Darstellung"<br />
- unterschiedliche Monitore, Beamer, Drucker etc.<br />
</pre><br />
<br />
== Leuchtdichte (Luminanz) ==<br />
<br />
* Luminanz Y ist die Strahlungsleistung, bewertet mit der spektralen Empfindlichkeitsfunktion des Auges für das Hellempfinden<br />
* Y ist Leistungsproportional, wenn Lichtzusammensetzung (Leistungsdichte <math>\Theta (\lambda))</math> konstant bleibt<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* Leuchtdichte berechnet sich nach dem ''Abneyschen Gesetz'':<br />
: <math> Y = L = k \cdot \underline L^T \cdot \underline F </math><br />
:* <math>\underline L^T - </math> Leuchtdichtebeiwert: gibt an wie groß der Beitrag jedes Farbwertes der Farbvalenz zum Helleindruck ist, abhängig vom gewählten Farbwiedergabesystem<br />
* Leuchtdichte L <math>\ne</math> Intensität I<br />
: <math> I = \frac 1 3 (R+G+B)</math><br />
<br />
* die perzeptuelle Antwort unseres Auges auf die Leuchtdichte wird Helligkeit (Lightness) genannt<br />
: <math><br />
L^{\star} = \begin{cases}<br />
116 \cdot \sqrt [3] {\frac Y {Y_n}} -16, & \text{wenn } \frac Y {Y_n} > 0{,}008856\\<br />
903{,}3 \cdot {\frac Y {Y_n}}, & \text{wenn } \frac Y {Y_n} \le 0{,}008856<br />
\end{cases}<br />
</math><br />
<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: Eine Quelle die nur 18% der Luminanz einer Referenz hat, erscheint uns immer noch halb so hell wie die Referenz </span><br />
<br />
== Gammakorrektur und Luma ==<br />
* '''Gammakorrektur:'''<br />
** Aufgrund der Ansteuerung von CRT Monitoren und der verwendeten Phosphore ergibt sich ungefähr eine quadratische Abhängigkeit der Luminanz vom Videosignal<br />
** Die Luminaz der drein einzelnen Farbkanäle muss den gleichen Verlauf aufweisen. Sie dürfen sich nur in ihren Maximalwerten unterscheiden!<br />
*** Sonst ist es nicht möglich die Helligkeit zu ändern und dabei die Farbe konstant zu halten<br />
** Die Gammakorrektur sorgt dafür das die Farbwiedergabe auf dem Monitor linear verläuft und nicht quadratisch<br />
*** Notwendig damit wir die gleich Wahrnehmung erzielen können als währe das Kamera-Monitor System nicht vorhanden<br />
<br />
*'''Luma:'''<br />
** Luma ist die gewichtete Summe der drei Gammakorregierten Farbwerte R',G',B'<br />
** Damit ist Luma nicht gleich Luminanz<br />
<br />
*'''Brightness'''<br />
** Brightness ist ein Begriff der beschreibt wie stark eine Fläche Licht emmitiert oder sie hell sie erscheint<br />
** Besitzt kein festes Maß und wird daher sehr frei verwendet -> HSL<br />
<br />
== Farbsysteme, Farbräume, reduzierte Farbräume ==<br />
* Die Intensität einer Farbe ist <math> I = \frac{R + G +B}{3} </math><br />
* Wählt man die Intensität konstant mit <math>I=\frac{1}{3}</math> so ergibt sich eine Ebene die den RGB-Farb Würfel Diagonal schneidet und durch die R,G,B Eckpunkte geht<br />
* Jede Farbkoordinate kann auf diese Ebene projeziert werden -> Ermöglicht die Nutzung dieser Ebene als einfache Farbtafel<br />
** Diese Ebene kann dann noch auf die 0RG- Fläche des RGB Würfels projeziert werden ohne das die Ordnung der Farben gestört werden würde -> Der Farbton einer Farbe lässt sich allein durch r und g beschreiben<br />
* in die rg-Ebene können nun alle in RGB - darstellbaren Farben und alles existierenden Farben eingetragen werden<br />
** Danach erkennt man das sich technisch mit dem RGB-System nur ein kleiner Teil der exisiterenden Farben realisieren lässt<br />
<br />
= Das Normvalenz- oder XYZ-System (GF a 76 - 86) =<br />
* Alle Farbwerte sollen durch positive Farbwerte darstellbar sein<br />
** Für Farbmessung von Interesse<br />
** Das XYZ- Dreieck muss den spektralen Kurvenzug voll umschließen<br />
* Eine weitere Forderung ist das die Leuchtdichte als unabhängige Komponete auftreten soll<br />
* Die Fläche des Dreiecks soll so klein wie möglich sein<br />
* Die dadurch berechnbaren Normalvalenzen sind physikalisch nicht erzeugbar -> Die Spektralwertkurven für das System müssen berechnet werden<br />
** Die Berechneten Spektralwertkurven sind stets nichtnegativ -> immer positive Transmissionsgrade und Sensorempfindlichkeiten<br />
[[Bild:NORMXYZ1.JPG]]<br />
* Mit dem XYZ-System kann man nun Farbdreiecke vergleichen und Bewerten<br />
** Abstände, Fehler und Systemeigenschaften sollten aber in einem empfindungsmäßig gleichabständigen Farbraum bewertet werden (u'v'w' und CIELab)<br />
* '''Optimalfarbkörper'''<br />
** Beschreibt die Grenze aller darstellbaren Körperfarben<br />
** Zur Erstellung schneidet man rechteckförmige Stückchen aus dem Spektrum von Idealweißem Licht aus<br />
<br />
== Das UVW-System ==<br />
* Informationsgehalt der Farbe für den Menschen hängt davon ab welche Farbunterschiede er wahrnehmen kann<br />
* Vor allem ist das interessant wenn Bildverarbeitungsprobleme auf der menschlichen Wahrnehmung formuliert sind<br />
* xy-Farbtafel hat starke Unterschiede zwischen örtlichen Abstenden und empfindungsmäßigen Abständen -> ungeeignet<br />
* erste Lösung<br />
** lineare Transformation<br />
** W' -> Helligkeit<br />
** U' -> Rot-Grün Bundheit<br />
** V' -> Gelb-Blau Bundheit<br />
** Ergebnis<br />
*** Wesentlich besseres Darstellung der Empfindung (Faktor 10 gegenüber dem XYZ-System)<br />
* verbesserte Lösung<br />
** verwenden einer nicht linearen Abbildung (Auge wird mit berücksichtigt)<br />
<br />
== L*a*b* oder CIELAB-Raum ==<br />
* Gegenfarbmodell<br />
* empfindungsmäßig gleichabständiger Raum<br />
* Grundsätzlich zur Angabe von Farbabweichungen verwendet<br />
** Geeignet zur Bewertung von Druckern, Monitoren und Abweichungen von Nachfärbungen<br />
* als Farbdifferenzmaß wird der euklidische Abstand benutzt (<1 nicht mehr Wahrnehmbar)<br />
<br />
== L*u*v* oder CIELUV ==<br />
* für additive Mischung vorgesehen<br />
* wie der CIELAB- Raum ein empfindungsmäßiger gleichabständiger Raum<br />
<br />
== YCbCr - Crominanzwertsystem ==<br />
* Entwickelt damit Farbfernsehen und S/W-Fernsehen Parallel betrieben werden konnten<br />
* Crominanzwerte<br />
** sind von Leuchtdichte befreite Werte<br />
** verschwinden für alle unbunten Farben<br />
** Cr= R-Y, Cg = G-Y, Cb = B-Y<br />
** Das System aus CrCbCg und Y ist überbestimmt => Es reicht die Übetragung von Cr , Cb und Y<br />
* Da das Auge auf Helligkeitsunterschiede empfindlicher reagiert als auf Farbunterschiede können die Crominanzwerte mit geringerer Auflösung übertragen werden<br />
<br />
== ΘSY - System ==<br />
* Der Bunttonwinkel Θ berechnet sich aus dem Verhältnis der Crominanzwerte Cb und Cr<br />
* Die Sättigung S ist der Betrag des Vektors CrCb<br />
<br />
== HSI - Farbraum ==<br />
* Intensität: <math> I= \frac{R+G+B}{3} </math><br />
* Sättigung: <math> S = 1 - 3 \cdot min (r,g,b) </math><br />
* Hue: <math> H= \left\{ \begin{matrix}\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B\le G \\ 2\pi -\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B>G \end{matrix}\right . </math><br />
* Raum ist nicht gleichmäßig gefüllt<br />
* bei kleinen Intensitäten I in Buntton und Sättigung Instabil<br />
* Es kann bei Farbmanipulationen dazu führen das es keine Entsprechungen im RGB gibt<br />
** Lösungen:<br />
*** Dachförmige Begrenzung des HSI Raums -> sehr Aufwendig<br />
*** Normieren der Intensitäten -> Bild kann ins dunkle verschoben werden<br />
*** Maximalwert setzen -> Falsche Farbwerte (werden ins unbunte verschoben)<br />
*** proportionales skalieren bis Farbe im RGB-Würfel liegt<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
<br />
== HSL - Farbraum ==<br />
* Gern für Computergrafik verwendet<br />
* einfache Beziehungen<br />
* Die Verwendeten Biegriffe H,S,L entsprechen nicht der Bedeutung in der Farblehre und Form des Raumes<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
* Buntton ist extrem instabil bei kleinen Sättigungen<br />
* Form des Raumes ist unpraktisch<br />
<br />
= Farbmessung (GF 1 - 11) =<br />
<br />
* Farbmessung = Ermittlung der drei zu einer Farbvalenz gehörigen Farbmaßzahlen<br />
* 3 Messmethoden: <br />
** Vergleichsmethode oder Gleichheitsverfahren<br />
** Spektralverfahren<br />
** Dreibereichsverfahren<br />
<br />
== Gleichheitsverfahren ==<br />
<br />
* Vergleiche:<br />
** Vorlage mit additivem Gemisch<br />
** Vorlage mit Farbmusterkarten (DIN-Karten)<br />
* unverzichtbar bei physiologischen Untersuchungen<br />
* aufwendig und bei kleinen Probandengruppen ungenau<br />
* d.h. für technische Messungen ohne Bedeutung<br />
<br />
'''Messbedingungen nach DIN:'''<br />
* helladaptiertes und blendfreies Sehen<br />
* unbunter Messraum<br />
* neutrale Gesichtsfeldumgebung mit gleicher oder etwas kleinerer Leuchtdichte als im Messfeld<br />
* gut ausgeruhtes und neutral gestimmtes Auge<br />
* farbnormalsichtiger Beobachter<br />
<br />
== Spektralverfahren ==<br />
<br />
* zu messende Farbvalenz = Summe spektraler Farbvalenzen<br />
* greift auf gemessene Normspektralwertkurven zurück<br />
<br />
# '''spektrale Messung zur Ermittlung der Farbreizfunktion <math>\varphi (\lambda) </math>'''<br />
#* Selbststrahler: direkte Messung der Strahlungsfunktion <math>\rightarrow \varphi (\lambda)= S (\lambda)</math><br />
#* remittierende Vorlage: Remissionsfunktion der Vorlage messen, d.h. Strahlungsfunktion S ist vorher zu bestimmen und aus <math>\varphi (\lambda)</math> heraus zu rechnen <math>\rightarrow \varphi (\lambda)= \beta (\lambda) \cdot S (\lambda)</math><br />
# '''farbvalenzmetrische Auswertung'''<br />
#* wenn <math>\beta (\lambda)</math> ermittelt wurde, kann jede beliebige (tabellierte) Lichtquelle <math>S^{\ast} (\lambda)</math>eingesetzt werden<br />
#: <math><br />
\begin{bmatrix}<br />
X\\Y\\Z<br />
\end{bmatrix}<br />
= k \cdot<br />
\begin{bmatrix}<br />
\int \bar{x} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{y} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{z} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda<br />
\end{bmatrix}<br />
</math><br />
#* Normierungskonstante k:<br />
#** Selbststrahler: nur Farbwertanteile gefragt, d.h. k ist beliebig<br />
#** Körperfarben: Y für mattweißen Körper = 100, d.h. <math>k=\frac{100}{\int {S(\lambda) \cdot \bar{y}(\lambda) d \lambda}}</math><br />
<br />
'''Messgeometrien:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bildergalerie (45°,8°,Transmission) </span><br />
<br />
* ''45°-Geometrie'': Beleuchtung unter 45° schließt Glanzeinfluss aus <math>\rightarrow</math> Sensor blickt senkrecht auf Probe<br />
* ''8°-Geometrie'': Beleuchtung diffus über Ulbricht-Kugel <math>\rightarrow</math> Sensor blickt unter 8° auf Probe; Messung mit/ohne Glanz möglich<br />
* ''Transmissionsgeometrie'': Probe wird durchleuchtet<br />
<br />
== Dreibereichsverfahren ==<br />
* die drei Farbwerte werden direkt photometrisch gemessen<br />
* Filter und spektrale Empfindlichkeite der Strahlungsempfänger müssen an die spektrale Bewertungsfunktion angepasst sein<br />
* '''Luther-Bedingung:''' <math> \tau_x(\lambda) = \frac{c_x \cdot x(\lambda)}{s_1(\lambda)}</math><br />
** <math> \tau_x(\lambda) </math> ... Filtertransmission<br />
** <math>s_1(\lambda)</math> ... Sensorempfindlichkeit (hier im ersten Kanal)<br />
** <math>c_x</math> ... Gerätekonstante<br />
** Für den Y und Z Kanal ist die Formel analog<br />
* Der notwendige Filter kann gut durch ein Set von Schmalbandigen Filtern realisiert werden<br />
<br />
== Spektralmaskenverfahren ==<br />
<br />
* spezielles Dreibereichsverfahren<br />
* Lichtzerlegung erfolgt mit einem Prisma<br />
* Das zerlegte Lich beleuchtet eine Maske (Papier, Plaste, Metal .... ne richtige echte Maske)<br />
* Messen der spektralen Verteilung (CCD-Zeile)<br />
* Ähnlich dem Spektralverfahren nur das das spektrum bereits im analogen entsprechend gewichtet wird<br />
<br />
== Metamerie ==<br />
* zwei Farbproben die bei einer bestimmten Beleuchtung gleich aussehen können bei einer anderen Beleuchtung ganz anderst aussehen<br />
* Der Metermarie-Index beschreibt diesen durch Beleuchtungswechsel entstehenden Farbwechsel<br />
* KEIN Maß für die Farbkonstantheit sondern für den Unterschied von zwei Proben<br />
* Berechnung erfolgt im L*a*b* Raum <br> <math> M_T = \sqrt {(L_{1T}-L_{2T}+L_{2B}-L_{1B})^2 +(a_{1T}-a_{2T}+a_{2B}-a_{1B})^2+(b_{1T}-b_{2T}+b_{2B}-b_{1B})^2 } </math><br />
** T ... Testlicht<br />
** B ... Bezugslicht<br />
** 1,2 ... Probennummern<br />
<br />
= Klassifikation von Messaufgaben (GF 82 - 86) =<br />
<br />
# Messung von objektiven Eigenschaften, die sich in der Veränderung spektraler Charakteristika niederschlagen<br />
#* vordergründig ist Zusammenhang zwischen Veränderungen in den physikalischen Eigenschaften von Interesse (z.B. Waferinspektion)<br />
#* Zusammenhang sollte eindeutig und von hinreichender Empfindlichkeit sein<br />
#* Wahrnehmung unterschiedlicher Farben eher Nebeneffekt<br />
# Überwachung der Stabilität von farblichen Erscheinungen<br />
#* ist bei einer oder mehreren Beleuchtungen zu überwachen<br />
#* absolute Farbmessung nicht nötig; "Anlernen" auf Farben genügt<br />
#* Abstände im Farbempfinden müssen sich in gleicher Weise in Veränderungen der Sensorsignale wiederspiegeln<br />
# absolute Farbmessung<br />
#* d.h. Ermittlung der korrekten Farbvalenz unter beliebigen Messbedingungen<br />
#* Spektralwertkurven müssen realisiert werden<br />
# Messung des spektralen Remissions- und/oder Transmissionsverhaltens von Materialien<br />
#* ausschließlich spektrale Messverfahren<br />
#* Messung der Strahlungsfunktion und der remittierten Leistungsdichte<br />
#* Berechnung der Farbvalenz bei beliebiger Beleuchtung und des Metamerie-Index<br />
<br />
'''steigende Ansprüche mit steigender Nummerierung'''<br />
<br />
= Einfache Farbkalibrierung (GF 16 - 41) =<br />
* Farben sollen möglichst exakt Wiedergegeben werden<br />
<br />
== Ausgleich von Beleuchtungseinflüssen ==<br />
* Körperfarben werden durch ihre Remmision bestimmt <math> \beta </math><br />
* Bei unterschiedlicher Beleuchtung sehen Farben unterschiedlich aus aber das Auge kann sich an die Beleuchtung adaptieren<br />
** Funktioniert bei Fotos aber nicht -> Beleuchtungsausgleich ist wichtig<br />
** Bei Farbvergleich noch viel mehr<br />
** Wird realisiert durch Weißabgleich (auf integraler Farbebene nicht möglich )<br />
* Direkte Vermessung der spektralen Eingenschaften der Kamera nicht möglich (Da Werte in Kamera bereits verrechnet werden um z.B. die negativen Anteile der Spektralkurven zu realisieren)<br />
** sehr Aufwendig (Kamera auseinanderbasteln um an die echten werte zu kommen + das durchgehen durch das Spektrum in kleinen Schritten)<br />
* Daher Verwendung von Testfarben<br />
** Führt auf Lösung eines linearen Gleichungssystem<br />
** Für menschliches empfinden -> Optimieren im CIELAB-Raum<br />
* Vorsicht bei nichtlinearen Funktionen zur Farbkalibrierung -> Kann bei zu wenig Testfarben zu total falschen Ergebnissen führen !!<br />
<br />
= Color Management (F CM 1 - 20) =<br />
* verschiedene Geräte können verschiedenen Farben darstellen<br />
* verschiedene Geräte verwenden andere Grundfarben zum mischen<br />
* Mit Hilfe von Profilen (Tabellierung der Farbwerteumrechnungen) wird eine Konvertierung der Farben vom Geräteraum in den CIELab Raum bzw umgekehrt durchgeführt<br />
* in den Profilen wird auch vermerkt welche Farben darstellbar sind und welche nicht<br />
* Somit kann man eine "Druckvorschau" auch auf einem Monitor erreichen (natürlich nur für Farben die auf beiden Geräten dargestellt werden können)<br />
** Jedes Mapping der Farben (Gamut-Mapping stellt somit einen Kompromiss dar)<br />
**# Perceptual (Die Farbbeziehungen untereinander werden erhalten) Komprimierung des Gamuts bis er in den zur Darstellung verwendeten passt<br />
**# Colometrisch -> Exakte Reproduktion aller in beiden Gamuts darstellbaren Farben<br />
**## relativ -> weiß wird auf weiß abgebildet und alle anderen Farben relativ dazu<br />
**## absoult farbmetrisch<br />
**# Saturation, alle Farben außerhalb des Zielgamuts werden zugunsten der Sättiung verändert<br />
* Kalibrierung -> Versetzen des Gerätes in einen definierten, reproduzierbaren Zustand<br />
* Charakterisierung -> Modellierung eines Gerätes welches sich ein einem stabilen definierten Zustand befindet<br />
<br />
= Kameras (GF_Ka 1 - 12) =<br />
<br />
'''Einsatzfelder:'''<br />
* ortsaufgelöste Messung von Farbe<br />
* Aufnahme und Wiedergabe von True-Color Bildern<br />
* Aufnahme farbiger oder mehrkanaliger Bilder für die Verarbeitung/Analyse (Qualitätssicherung)<br />
* Photogrammetrische Anwendungen (Lösung des Korrespondenzproblems)<br />
* Radiometrische Anwendungen (Messen im Spektralbereich)<br />
<br />
'''Dreibereichsmessung:'''<br />
* setzt die Trennung von drei sich überlappenden Spektralbereichen voraus, die dann wellenlängenabhängig zu bewerten und zu integrieren sind<br />
<br />
== Dreichip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* optische Kanaltrennung und Bewertung<br />
* beste Bildqualität, da hohe Auflösung in allen drei Kanälen<br />
* keinen örtlichen Versatz der Pixel in den drei Farbauszügen<br />
* Filter einfacher und präziser zu realisieren<br />
* befinden sich z.B. als dichroitische Spiegel auf den Strahteilerprismen<br />
<br />
<span style="color:#ee0000;"> \\ Hot-Mirror-, Cold-Mirror-Korrektur????</span><br />
<br />
== Einchip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: doppelte Anzahl grüner Pixel wegen Schärfe, MTF des Auges </span><br />
<br />
* örtliche Kanaltrennung und Bewertung<br />
* Streifen- oder Mosaikfilterstrukturen auf den einzelnen Pixeln zur örtlichen Signaltrennung<br />
* 3 oder 4 unterschiedliche spektrale Auszuüge zur Erzeugung der Farbinformation<br />
* Matrix selbst kann Interline- oder Frame-Transfer-Matrix sein<br />
* kostengünstiger und kleiner als Dreichip-Kameras<br />
* Probleme:<br />
** Farbvalenzen aus örtlich versetzten Auszügen (z.B. Farbsäume an Kanten)<br />
** nicht korrigierbare Fehler aus Nichtlinearitäten und Dunkelsignalen bei der Bildung von Mischsignalen<br />
<br />
'''generelle Anforderungen an die Signalverarbeitung:'''<br />
<br />
* primäre Kamerasignale stellen keine farbmetrische Schnittstelle zur Verfügung, d.h. alle Bewertungsfunktionen sind nicht-negativ (Spektralwertkurven fordern aber negative Wichtungen)<br />
* je nach realisierten Filtern und Genauigkeitsansprüchen <math>\rightarrow</math> lineare Matrizierung (meist Kameraintern) oder komplexere Approximation<br />
* bei hohen Genauigkeitsansprüchen <math>\rightarrow</math> Umgehung der Kamerainternen Matrizierung, weil Verstärkungsfaktoren, Toleranzen, Temperaturdrift, Langzeitstabilität etc. nicht bekannt sind<br />
* insgesamt geringe Nichtlinearitäten der CCD's können in den Ansteuerbereichen der einzelnen Kanäle zu wesentlichen Fehlern führen:<br />
** Farbvalenz ändert sich kontinuirlich mit der Shutterzeit<br />
** Pixelweise DSNU- (Dunkelsignalungleichförmigkeit) und PRNU- (Hellsignalungleichförmigkeit) Korrektur vor Erzeugung der Farbvalenz erforderlich, da sich Festmusterrauschen nicht nur auf Intensität sondern auch auf Farbart auswirkt<br />
** Dunkelsignal verdoppelt sich alle 7K, Gleichanteil wird aber geklemmt<br />
** Lichtquellentyp und Langzeitverhalten wirken sich nicht nur Intensität sondern auch auf Farbtemperatur aus<br />
<br />
'''4 spektrale Bereiche:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* vorteilhaft zur Erzeugung von Farbdifferenzsignalen für die TV-Kompatibilität<br />
* im Field-Integration-Mode werden Mischsignale gebildet, die die erforderliche Signalkorrektur für hohe Ansprüche behindern<br />
* Nichtlinearität der Ausgangsverstärker wirkt sich auf Korrektur der primären Mischsignale aus<br />
<br />
== Sequentielle Einchip-Kamera ==<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* zeitliche Kanaltrennung und Bewertung<br />
* relativ genaue Approximation der Spektralwertkurven möglich<br />
<br />
== Elektrisch steuerbare Filter ==<br />
<br />
* über die Wellenlängenabhängigkeit der Eindringtiefe der Photonen und die Steuerbarkeit der Tiefe der Potentialmulden der sensoren lassen sich steuerbare spektrale Empfindlichkeiten erzeugen<br />
<br />
= Verarbeitung von Farbbildern (1 - 31) =<br />
* Das unabhängige verarbeiten der Farbkanäle eines Farbbildes führt zu Nebeneffekten wie Farbsäume<br />
* Die höhere Vielfalt des mehrdimensionalen Raumes von Farbbildern kann Vorteilhaft genutzt werden für Pixelklassifikation, Segmentierung <br />
* Abstände, Mittlere Werte und örtliche Veränderungen sind in empfindungsmäßig gleichabständigen Räumen zu definieren und zu bewerden<br />
<br />
== Histogramme und Statistiken für Farbbilder ==<br />
* Farbbilder liefern dreidimensionale Häufigkeitsverteilungen im Farbraum → können als Approximation der entsprechenden 3D-Dichten verwendet werden<br />
* statistische Zusammenhänge zwischen den Kanälen werden in mehrdimensionalen Dichten betrachtet<br />
** Für Handauswertung meist nur 2D-Dichten, wegen der Übersicht<br />
** Für maschinelle Auswertung können diese dichten auch dreidimensional werden<br />
** für die parametrische Darstellung der Cluster werden meist multivariante Gaußverteilungen eingesetzt<br />
*** Einr Gaußverteilung ist für die Beschreibung eines Bildes mit mehreren Objekten nicht geeignet<br />
*** Die Kovarianzmatrix einer solchen "Approximation" kann aber gut zur Einschätzung der Streuung und der Mittelwerte in dem Bild eingesetzt werden<br />
<br />
=== Histogramm - Modifikationen ===<br />
* Contrast Streching, Polygonal Image Scaling, Histogram-Equalisation Siehe [[Grundlagen der Bildverarbeitung und Mustererkennung#homogene Punktoperationen|Grundlagen der Bildverarbeitung]]<br />
* Manipulation kann in verschiedenen Farbräumen ausgeführt werden (RGB,HSI,...)<br />
** In nicht empfindungsmäßig gleichabständigen Räumen muss die Transformation nicht unbedingt zum Ziel führen<br />
==== Manipulation im Farbraum RGB ====<br />
* ist der Farbraum in dem die Daten häufig vorliegen<br />
* Wirkung kann auf Grund der starken korrelation der RGB Werte bei geringen Sättigungen ausbleiben<br />
* Farbverfälschung wenn einzelne Kompontenen unabhänig von einander behandelt werden<br />
* hohes apriori-Wissen notwendig<br />
* wenn Falschfarbdarstellung gewünscht ist kann dies das mittel der Wahl sein<br />
<br />
==== Manipulationen im Farbraum HSI ====<br />
* unproblematisch in Bezug auf Farbverfälschungen<br />
* Zielsetzungen können sich einfacher beschreiben lassen (ähnelt der Beschreibung von Farbe durch den Menschen)<br />
* unabhängige Komponente (Intensität)<br />
* Kontrastverbesserung durch Sättigungsausgleich ohne Farbveränderung möglich<br />
* Stabilitätsprobleme nahe den unbunten Farben<br />
# '''Ausgleich des Intensitätshistogramms'''<br />
#* Werte möglich die keine entsprechung mehr im RGB haben → müssen geeignet herruntergerechnet werden<br />
#* bei kleinen Intensitäten sind die Bunttöne instabil → ausschließen von Veränderungen<br />
# '''Sättigungsausgleich'''<br />
#* Modifikation der Sättigung unter Beibehaltung des Bunttones<br />
#* Bei kleinen Sättigungen und kleinen Intensitäten ist der Buntton instabil → Ausschließen<br />
#* Histogramm über alle Bunttöne ist häufig verschmiert → besser Histogramm über Buntton Segmente<br />
# '''Bunttonausgleich'''<br />
#* Ziel sind Farbfalschbilder um Objekte besser unterscheiden zu können<br />
#* bei zu großen Buntton Änderungen wird die Interpretierbarkeit nur bei homogenen Flächen verbessert, meist wird sie eher verschlechtert<br />
#* Unsicherheit des Bunttons → bei geringen Sättigungen und Intensitäten ist der Buntton auszuschließen<br />
<br />
== segmentgesteuerte Farbvalenztransformationen ==<br />
* Globale Statistiken werden häufig durch nicht interressante Objekte dominiert<br />
* Ausweg ist das Betrachten von Ausschnitten und anwenden der Transformationen auf die Ausschnitte<br />
* erfordert zu erst das Segmentieren des Bildes<br />
<br />
= Referenzfreie Farbadaption auf Basis des 3D-Histogramms (HuS 32 - 39 ) =<br />
* unter bestimmten umständen kann auf eine Kalibrierung der Kamera mittels Referenzfarben verzichtet werden<br />
* Zur Korrektur soll die parametrische Approximation der 3D-Histogramme durch multivariante Gaußverteilungen genutzt werden<br />
== Vorraussetzungen für die Anwendbarkeit ==<br />
* Strukturierte Szene mit mehreren ntürlichen Objekten, die gleichmäßig über den Bunttonwinkel verteilt sind und durchschnittlichen Sättigungsgrad aufweisen<br />
* Langgestreckter SW-Prozess im Vergleich zum Rot-Grün und Blau-Gelb Prozess<br />
<br />
== Vorgehensweise ==<br />
* Korregieren von "vermutlichen" Abweichungen des Bildes in der Unbuntheitsachse<br />
* Dazu Ermitteln der Hauptachsen mit PCA<br />
* Drehen der Hauptachse in den SW-Prozess<br />
* Rücktransformation und Darstellung<br />
<br />
= Histogrammbasiertes Farbmatching(1 - 15) =<br />
* Histogramme sind im 2D Bild invariant gegenüber Rotation, Translation und Maßstab (wenn die Angaben relativ erfolgen !)<br />
* Histogramme sind auch relativ stabil gegenüber moderaten Verdeckungen und 3D-Rotation<br />
* Grobe Quantisierung der Histogramme um Fehlertoleranz zu erhöhen<br />
* Damit können Histogramme zur Objekterkennung eingesetzt werden → Bezeichnet als Color Indexing<br />
<br />
== uniformes Binning ==<br />
* einteilen der Farben in ein gleichverteiltes Histogramm<br />
* Suche in einem Bild den Ausschnitt welcher eine minimale Distanz zum Referenzbild hat<br />
* Als Abstandsmaß verwendet werden die Histogramme genutzt<br />
** Summe der Quadratischen Differenzen (Histogramme als Vektoren betrachtet und dann den euklidischen Abstand berechnet ohne Wurzel)<br />
** Earth Movers Distance (Berechnen was sich wohinverteilt haben könnte ... erfordert die Lösung des Transportproblems)<br />
* einfach aber die Bins ändern sich Sprunghaft, vor allem dann wenn Farben knapp an den willkürlichen Bingrenzen liegen<br />
<br />
== Unscharfe Chroma-Orts-Histogramme ==<br />
* Nachteile des uniformen Binning sollen überwunden werden<br />
* Alle Pixel bekommen eine unscharfe Klassenzugehörigkeit (Binnzugehörigkeit) je nach Abstand zum entsprechenden Binnmittelpunkt (wie bei [[Softcomputing|Fuzzy-C-Means]])<br />
** Ein Parameter ermöglicht dabei die Verunschärfung einzustellen (von total unscharf bis zum festen Binning)<br />
* Auch der absolute Ort der Segmente (aus denen die Histogramme erstellt werden) soll mit verwendet werden<br />
** Dazu wird das Bild in entsprechende Bereiche geteilt (8x8,16x16,...)<br />
** Alle Blöcke werden durchnnummeriert<br />
** Auch hier kommt es zu harten Umbrüchen wenn Pixel knapp an den Grenzen liegen → auch hier verunschärfen<br />
** Welche Indizees haben die Nachbarn? (Nachbarschaft in den Indizees der Blöcke heißt nicht gleich 2D-Nachbarschaft)<br />
<br />
== Cluster mittels Graphenansatz ==<br />
* Ziel ist es:<br />
** Sprunghafte Änderung der Binns zu verhindern<br />
** wenige Merkmale zu verwenden<br />
** Eng beieinander liegende Maxima trotzdem unterscheiden zu können<br />
* Verwendete Bilddaten:<br />
** Farbwinkelhistogramm, wenn Sättigung der Farben ausreichend ist<br />
** Intensitätsdiagramm, wenn Sättigung der Farben zu gering wird<br />
* Vorgehen:<br />
** Jeder Wert im Histogramm zeigt auf den Größten in seiner Nachbarschaft<br />
** Das Maximum zeigt auf sich selbst → Wird Merkmal<br />
** Weiteres Merkmal ist die Fläche die zum Maximum gehört (Nachbarn die direkt bzw. indirekt auf das entsprechende Maximum zeigen)<br />
* Match:<br />
** Finde ein Tupelpaar (Maxima in Referenzhistogram und Suchhistogram mit dem geringsten Abstand)<br />
** Ziehe gemeinsame Fläche von jedem Tupel des Paares ab<br />
** summiere gemeinsame Fläche (?)<br />
** Wiederhole bis sich keine Tupelpaare mehr bilden lassen<br />
** beziehe die laufende Summe auf das Maximum der Summe der ursprünglichen Flächen<br />
<br />
= Störunterdrückung (SU 1 - 16) =<br />
* Für nachfolgende Verarbeitungsschritte ist die Störunterdrückung sehr wichtig<br />
* Verschiedene verfahren der Rauschunterdrückung sind in [[Grundlagen der Bildverarbeitung und Mustererkennung#Lokale Operatoren zur Bildverbesserung (LOa 1 - 44) |BV]] eingeführt worden<br />
<br />
== Störunterdrückung durch Faltungsfilter ==<br />
* Anwendung wird einfach vektoriell durchgeführt (als würde man drei unabhängige Bilder gleichzeitig Filtern wollen)<br />
* es entstehen neue Farbtöne an den Übergängen zwischen Farben<br />
* im HSI Farbraum ist eine getrennte Betrachtung der Farbe und der Sättigung/Intensität möglich<br />
* Buntton ist zyklisch → muss bei der Mittelung beachtet werden<br />
* in der Farbe kann stärker gemittelt werden als in der Helligkeit (Auge nimmt Farbveränderungen schlechter wahr)<br />
* Komplexe Zahlen bieten sich hier als Rechenmittel an<br />
<br />
== adaptive gewichtete Mittelung ==<br />
* detailerhaltende Fähigkeiten von Filtern wegen der Farbsäume besonders von Interesse<br />
* Abstände verkomplizieren sich im Vergleich zu Grauwertbildern (Vektorabstandsmaße, Winkeldifferenzen,...) <br />
* Vorgehen nach dem Berechnen des Abstandes dann wieder Analog zur Grauwertfilterung<br />
<br />
== Medianfilterung ==<br />
* Problem bei der Übertragung des Rangordnungsgedankens auf Vektoren<br />
** Komponentenweises Vorgehen ist nicht geeignet (absolute Farbverfälschungen möglich)<br />
** Suche des besten Vertreters des SETS (wenn der verwendete Media im SET ist werden keine zu falschen Farben gewählt/gesetzt)<br />
*** kleinste Abstandssumme zu allen anderen Pixeln<br />
<br />
== Kombination von Averaging und Medianfilterung ==<br />
* Medianfilter ist gut für Impulsrauschen, schlecht bei Gauß hier ist Average gut<br />
* Bei den Filtern gibt es keinen unterschied zu den Grauwertbildern (unterschied besteht nur in der Realisierung der verwendeten Media/Average Filter nicht in ihrere Kombination)<br />
<br />
== Vektor-Richtungs-Filter ==<br />
* '''Basic Vecotr Directional Filter'''<br />
** Winkel zwischen Farbvalenzen als Distanzmaß<br />
** Ergebnis ist die Farbvalenz mit der kleinsten Winkeldifferenzsumme zu allen Valenzen des Fensters<br />
** Achromatische Rauschkomponenten werden nicht beseitigt<br />
* '''Generalized Vector Directional Filter '''<br />
** Suche nach den besten Vektoren aus Sicht der Richtung<br />
** Medianfilterung der Beträge der Vektoren<br />
* '''Directional Distance Filter'''<br />
** Vermeiden der Ineffizenz des GVDF Filters durch ein gemischtes Distanzmaß (Betrag und Winkel gleichzeitig)<br />
<br />
= Kantendetektion in Farbbildern (1 - 21) =<br />
* Wichtig für Segmentierung, Bildanalyse und Bildverstehen<br />
* [[Grundlagen der Bildverarbeitung und Mustererkennung#Kantendetektion (LK 1 - 38)| Kantenfilter]] bereits aus BV bekannt<br />
# '''Vektrogradient'''<br />
#* Berechnen der Jacobi-Matrix<br />
#* Wurzel aus dem größten Eigenwert ist der Vektorgradient<br />
#* Extrem Rechenaufwendig<br />
# '''Mittelwert der Richtungsableitungen'''<br />
#* Entspricht dem Gradienten im Intensitätsbild<br />
#* Zwei engegengesetzte Gradienten in unterschiedlichen Farben können sich gegenseitig aufheben → der Gradient der dritten Farbe dominiert egal wie klein er ist<br />
# '''Maximaler Gradient'''<br />
#* Suche nach dem Gradienten mit dem größten Betrag<br />
#* Korrelation der einzelnen Gradienten ist nicht von Bedeutung<br />
<br />
= Farbpixelklassifikation (Farbpixelklassifikation 1 - 21) =<br />
* Die Farbvalenzen bilden die Merkmale der Pixel<br />
* Anzustrebende Eigenschaften<br />
** Gute Beschreibung der Klassencluster und gute Trenneigenschaften<br />
** Einfache Belehrbarkeit (Aus Beispielen oder Expertenwissen)<br />
** Echtzeitfähigkeit<br />
** möglichst frühe Stufe der Verarbeitungskette ("Anspruchslosigkeit an das Bild")<br />
** Nutzen von Klassenzugehörigkeitsmaßen<br />
<br />
== optimaler Klassifikator ==<br />
* basiert auf dem Bayes-Theorem<br />
* findet die optimale Klassenentscheidung<br />
* Jeder Datenpunkt wird in die Klasse eingeordnet zur der er am Wahrscheinlichsten gehöhrt und bei der er die kleinsten Kosten für die anderen Klassen verursacht<br />
** Benötigt eine Risikofunktion die Angibt wie groß die Kosten bei Fehlklassifikation zwischen zwei Klassen sind<br />
*** Meist unbekannt und deswegen wird davon ausgegangen das die Kosten für jede Fehlklassifizierung gleich sind<br />
*** Kosten können durchaus auch bei richtiger Klassifikation definiert werden<br />
** Benötigt die Wahrscheinlichkeitsverteilung der Klassen im Raum (Meist unbekannt → Problem)<br />
*** können beliebig sein werden aber meist durch Gaußfunktionen approximiert<br />
*** in der Lernphase werden die Parameter dieser Verteilung geschätzt<br />
* Da Wahrscheinlichkeitsverteilung meist unbekannt ist, wird der Klassifikator ehr genutzt um einen anderen Klassifikator zu bewerten, wenn man eine bestimmt Wahrscheinlichkeitsverteilung festlegt (wie optimal ist der andere Klassifiaktor)<br />
<br />
== Maximum-Likliehood-Klassifikator ==<br />
* im Ansatz wie optimaler Klassifikator<br />
* setzten der Risikofunktion für alle Fehlklassifikationen auf einen konstanten Wert<br />
* verwenden von multivarianten Gaußdichten zur Beschreibung der Klassen<br />
* Entscheidung wird nur noch nach der a posteriori Wahrscheinlichkeit und der Klassen Verteilung gefällt<br />
<br />
== Malanobis-Abstandsklassifiaktor ==<br />
<br />
= Clusterverfahren (Farbpixelklassifikation 19 - 45) =<br />
<br />
= Segmentierung (Seg 1 - 8) =<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Grundlagen_der_Farbbildverarbeitung&diff=6988Grundlagen der Farbbildverarbeitung2009-03-17T09:15:16Z<p>DarkGhost: /* optimaler Klassifikator */</p>
<hr />
<div>Link zum [http://www.zbs-ilmenau.de/intern/vip-toolkit/index.php Vip toolkit]<br />
= Einführung (GF_a 8 - 47) =<br />
<br />
== Geschichtliches zur Farbe ==<br />
<br />
=== Newton ===<br />
<br />
* 1672: New Theory about Light and Colours<br />
** Sonnenlicht = Mischung einzelner Farben<br />
** Spektralfarben sind objektive Eigenschaft des Lichtes<br />
<br />
[...]<br />
<br />
=== Goethe ===<br />
<br />
[...]<br />
<br />
== Begriff der Farbe ==<br />
<br />
* '''Farbe im engeren Sinn, stellt eine spezielle menschliche Sinneswahrnehmung dar'''<br />
* <math>\Phi_i = \int_{\Delta \lambda_i} \varphi_{\lambda} (\lambda) d \lambda</math><br />
* Leistungsdichte <math>\phi (\lambda)</math> stellt dagegen den Farbreiz dar, der die Farbempfindung hervorruft<br />
* Vektoren <math>\underline \Phi</math> sind je nach Dimension mehr oder minder genaue Approximationen des Farbreizes<br />
<br />
* Orientierung am menschlichen visuellen System und die Betrachtung psychologischer und physiologischer Grundlagen sind von Interesse:<br />
** zur richtigen Bewertung der Schwierigkeiten und Herausforderungen bei der Schaffung technischer Lösungen<br />
** zur Anpassung technischer Lösungen der Bildwiedergabe an das visuelle System<br />
** zur Nutzung optimaler Naturprinzipien für technische Lösungen<br />
** weil technische Systeme im allgemeinen auf dem inneren Modell des Menschen von der Welt beruhen und dieses Modell in hohem Maße durch den visuellen Kanal des Menschen beeinflusst ist<br />
** weil optoelektronische Sensoren, Bildverarbeitung und Bildanalyse wichtige Schnittstellen zwischen Mensch und Maschine darstellen<br />
**weil viele Objekteigenschaften durch visuelle Eindrücke beschrieben werden<br />
<br />
* menschliches Auge kann ca. 100 Graustufen / ca. 300 000 Farben unterscheiden<br />
<br />
* Drei grundsätzliche Anwendungen von Farbinformation:<br />
** Pseudokolorierung<br />
** Falschfarbendarstellung<br />
** Echtfarbdarstellung (True Color) <math>\rarr</math> hier Schwerpunkt<br />
<br />
== Farbtäuschung ==<br />
<br />
* Zuordnung zwischen Physik und Wahrnehmung nur eindeutig wenn bunte Dinge isoliert betrachtet werden<br />
* Werden bunte Objekte in bunte Umgebungen eingebettet/bewegt, dann können abweichende Farbwahrnehmungen auftreten, so genannte Farbtäuschungen<br />
* es existieren unterschiedliche Arten solcher Täuschungen:<br />
** ''Farbinduktion oder simultaner Farbkontrast'' (Farbe wird durch ihre Umgebung modifiziert)<br />
** ''Farbkonflikt'' (es konkurrieren verschiedene Sehinformationen miteinander)<br />
** ''Subjektive Farben'' (es werden bunte Farbtöne wahrgenommen, die nicht vorliegen)<br />
<br />
'''Simultaner Farbkontrast:'''<br />
* erstmals 1839 beschrieben<br />
* wo der Effekt entsteht (Auge, Cortex) ist unklar<br />
<br />
'''Farbinduktion:'''<br />
* bei kleinteiligen, sich wiederholenden Strukturen erfolgt Angleichung<br />
* kann zur Rauschunterdrückung oder zur Unterdrückung von Feintexturen zugunsten der Erkennung größerer Objekte wichtig sein<br />
<br />
'''Farbkonflikt:'''<br />
* Formen und Strukturen konkurrieren mit Farben ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf White'sche Illusion])<br />
<br />
'''Subjektive Farben:'''<br />
* durch Bewegung ist es möglich Farben zu erzeugen die ursprünglich nicht vorhanden waren ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf Drehwurm in Farbe])<br />
<br />
== Farbwahrnehmung beim Menschen ==<br />
<br />
[...]<br />
<br />
=== Rezeptive Wahrnehmung ===<br />
* 1807 stellte Young die Hypothese auf das Farbsehen auf drei Arten von Sinneszellen beruht (rout,grün,blau)<br />
* erst 1964 konnten dies bewiesen werden, durch die Messung der Absorptionsspektren<br />
*[[Datei:Pdt-kurven.svg]]<br />
<br />
=== Postrezeptive Wahrnehmung ===<br />
* Mit dem 3 Farbenmodell konnten einige psychologische Erscheinungen nicht erklärt werden<br />
** Es werden 4 Farben als besonderst "rein" empfunden (Rto, Geln,Grün, Blau)<br />
** Unbunte Farben werden werden als das fehlen von Farben wahrgenommen<br />
** Schwarz schein gleichberechtigt zu Weiß<br />
** keine wahrgenommene Farbe erscheint zugleich rötlich und grün<br />
* das führte zur Gegenfarbentheorie die anfangs nur Psychologisch begründet war 1958 aber physiologisch Nachgewiesen werden konnte<br />
** Rot - Grün<br />
** Gelb - Blau<br />
** Schwarz - Weiß<br />
* → CIELab-Farbraum<br />
<br />
=== Kortikale Kodierung ===<br />
* Weder die 3 Farbentheorie noch die Gegenfarbentheorie beschreiben die bewusste Wahrnehmung des Menschen<br />
* Deshalb erweitertes Modell<br />
** Farbton / Buntton beschreibt die als besonderst rein empfundenen Spektralfarben<br />
** Sättigung beschreibt wie stark eine Farbe verblasst ist<br />
** Helligkeit beschreibt, wie hell oder dunkel eine Farbe ist<br />
* Wo/Wie genau die neuronale Verarbeitung erfolgt, ist noch nicht sicher belegt<br />
<br />
== Die Ordnung in der Welt der Farben ==<br />
* Newton kannte die Wellenlänge noch nicht → er ordnete die Farben nach dem Regenbogen<br />
* Goethe verwendete das Gegenfarbenmodell<br />
* Munsell schlug 1905 ein Farbordnungssystem vor bei dem alle Abstände zwischen den Farben Empfindungsmäßig gleich sind<br />
** führt zu einem geometrisch nicht regelmäßigen Körper<br />
<br />
== Das Modell der Farbe ==<br />
* '''Definition'''<br />
** Farbe ist diejenige Gesichtsempfindung eines dem Auge strukturlos erscheinenden Teils eines Gesichtsfeldes durch die sich diser Teil bei einäugiger Betrachtung mit unbewegtem Auge von einem gleichzeitig gesehenen ebenfalls strukturlos angrenzendem Bezirk allein unterscheidet (unbunte Farben: Schwarz, Weiß und Graustufen, bunte Farben: Helligkeit; Buntheit setzt sich aus Buntton und Farbsättigung zusammen)<br />
** Farbe ist durch Helligkeit, Buntton, Sättigung eindeutig bestimmt → 3D Modell<br />
*** drei linear unabhängige Größen<br />
*** Additive Mischung zur Reproduktion von Farbe (aus Rot, Grün, Blau)<br />
*** drei linearunabhängige Größen spannen immer einen Raum auf → Rot,Grün und Blau werden die Achsen dieses Raumes<br />
<br />
=== Farbvalenz ===<br />
* Mit unserem Modell läßt sich jede Farbe als linearkombination unserer drei Basisvektoren aufschreiben<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
** <math> \vec F</math> ... Farbvalenz<br />
** <math> \vec r, \vec g, \vec b </math> ... die drei Basisvektoren die den Raum aufspannen (Rot, Grün und Blau)<br />
** <math> R,G,B, |\vec F| </math> ... die Farbwerte<br />
** <math> \vec r \cdot R, \vec g \cdot G, \vec b \cdot B </math> ... die drei Primärvalenzen<br />
* Ermittelt werden die Farbwerte mit Hilfe der Vergleichsmethode<br />
** Eine Person vergleicht ein Target mit einer Farbe die aus den drei Primärvalenzen gemischt wird<br />
** wenn die Empfindung der beiden Farben gleich ist, dann notieren wir die Werte<br />
* Innere Farbmischung<br />
** das Target wird mit weißen Licht beleuchtet und wir drehen nur an dem Farbmischgerät<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
* Äußere Farbmischung<br />
** Wir beleuchten das Target mit farbigen Lichte<br />
**<math> \vec F+ B \cdot \vec b = R \cdot \vec r + G \cdot \vec g \rightarrow \vec F = R \cdot \vec r + G \cdot \vec g - B \cdot \vec b</math><br />
<br />
=== Farbreizmetrik ===<br />
* Die Farbreizfunktion <math> \varphi_\lambda</math> beschreibt die spektrale Zusammensetzung der Farbempfindungen<br />
*# Selbstleuchtende Objekte<br />
*#* <math> S_\lambda (\lambda)</math> beschreibt die spektrale Verteilung der Quelle<br />
*#* Wahrnehmung: <math> \varphi_\lambda = S_\lambda</math><br />
*# Auflicht Vorlagen<br />
*#* <math>\beta_\lambda(\lambda)</math> beschreibt den spektralen Remisionsgrad der Vorlage<br />
*#* Wahrnehmung: Licht reflektiert von der Vorlage <math> \varphi_\lambda = S_\lambda \cdot \beta_\lambda</math><br />
*# Durchlichtvorlagen<br />
*#* <math>\tau_\lambda(\lambda)</math> spektraler Transmissionsgrad der Vorlage<br />
*#* Wahrnehmung von Licht welches die Vorlage durchdrungen hat <math>\varphi_\lambda= S_\lambda \cdot \tau_\lambda</math><br />
* Damit haben folgende Faktoren Auswirkung auf die Wahrgenommene Farbe<br />
*# Die Beleuchtung des Objektes (Spektrale Zusammensetzung des Lichtes der Lampe)<br />
*# Das Remmisionsverhalten der beleuchteten Oberfläche<br />
*# Die wellenlängenabhängige Empfindlichkeit der drei Zapfen des Auges<br />
* Es besteht die Möglichkeit die pdt Kurven direkt zur Beschreibung des Farbempfindens zu nutzen<br />
* Die Farbwerte könnte man dann wie folgt ermitteln: <math> \left(\begin{matrix}P\\D\\T\end{matrix}\right)=k\int_{380\mathit{nm}}^{780\mathit{nm}}\varphi (\lambda )\cdot \left(\begin{matrix}p(\lambda )\\d(\lambda )\\t(\lambda )\end{matrix}\right)d\lambda </math><br />
* Für die technische Darstellung von Farbe werden allerdings R,G,B werte benötigt<br />
* Die dafür notwendigen Spektralwertkurven können mit Hilfe der Vergleichsmethode ermittelt werden<br />
* Man erhält damit folgende Kurven<br />
[[Datei:SpektralwertfunktionenRGB.jpg]]<br />
* Mit der gleichen Formel wie bei der pdt Kurve lassen sich nun die R,G,B Werte rechnerisch ermitteln<br />
<br />
== Farbanalyse, Zusammenhang mit der Farbwidergabe ==<br />
* Das Kammera - Monitor System soll die Farbe exakt wiedergeben<br />
* Der Monitor verwendet EBU Phosphore für die Farbdarstellung<br />
** haben selbst Spektralwert kurven => keine Monochromatischen Lichter mehr<br />
* Die notwendigen spektralwertkurven die die Kamera realisieren muss um die Bilder auf dem Monitor exakt darzustellen lassen sich mit Hilfe der pdt Kurven herleiten (Über forderung der Gleicheit der Farben)<br />
* Sie besitzen stark negative Anteile => Auch die Filter der Kamera müssten negative Transsmissionsgrade besitzen<br />
** technisch ist das nicht möglich<br />
* es bleibt also nur die Möglichkeit die notwendigen Parameter zur Ansteuerung des Monitors aus positive one-peak Kurven zu berechnen<br />
<br />
== Subtraktive Farbmischung ==<br />
* Die Subtraktive Farbmischung lässt sich auf die Multiplikation der Transmissionsgrade zurückführen (ein Filter lässt 50% rotes licht durch, wenn man zwei dieser Filter hintereinander legt, dann geht nur noch 25% rotes Licht durch die Anordnung (0.5*0.5 = 0.25) )<br />
* wenn <math> \tau_0 </math> die Transmission eines Filters für die normierte Dicke 1 und die normiert Dichte 1 ist dann kann man<br />
** mit dem Lambertschen Absorbtionsgesetzt die Absortption von dickern/düneren Material berechnen <br> <math> \tau = [ \tau_0]^w </math><br />
*** w ... Dicke des Materials im Verhältnis zum norm Material<br />
** mit dem Beerschen Gesetz die Transmission von Meterial mit anderer Dichte berechnen <br><math> \tau = [ \tau_0]^c </math><br />
*** c... Das Verhältnis der neuen zur alten Dichte<br />
** kann man auch kombinieren zu (Lambert-Beersches Gesetz)<br />
** <math> \tau = [ \tau_0]^{c \cdot w} </math><br />
* Da sich die Transmission Multiplikativ zusammensetzt wird auch gerne mit dem logarithmus der Transmission gerechnet (optische Dichte)<br />
**<math> D = - lg \tau = lg \frac{1}{\tau}</math><br />
** Damit vereinfacht sich das Lambert-Beersche gesetz zu: <math> D = c \cdot w \cdot D_0</math><br />
* selbstverständlich sind die Transmission <math>\tau</math> und die optische Dichte D von der Wellenlänge abhänig ... zur Übersichtlichkeit wurde das in den Formeln nur weggelassen<br />
* Bei einem Papierbild kommt zu dem Filter noch die Reflexion an der Farboberfläche und an der Papieroberfläche<br />
** Beachte das Licht was an der erste Schicht wegreflektiert wird kann icht tiefer eindringen. Nur noch <math> (1-\beta)*S </math> dringt an Licht durch den ersten Filter!<br />
*** <math> \beta </math> ... Remmisionsgrad der ersten Farbe<br />
*** <math> S </math> ... Spektrale Verteilung der Lichtquelle<br />
<br />
= Farbmetrische Schnittstellen - Farbräume (GF a 49 - 55) =<br />
<br />
<pre><br />
Unterschiedliche bildgebende Systeme<br />
z.B. Farbkameras<br />
Farbscanner<br />
Spezialkameras<br />
</pre><br />
'''Widerspruch''' <math>\updownarrow</math> Farbmetrische Schnittstelle<br />
<pre><br />
Unterschiedliche Bildwiedergabesysteme<br />
"True-Color-Darstellung"<br />
- unterschiedliche Monitore, Beamer, Drucker etc.<br />
</pre><br />
<br />
== Leuchtdichte (Luminanz) ==<br />
<br />
* Luminanz Y ist die Strahlungsleistung, bewertet mit der spektralen Empfindlichkeitsfunktion des Auges für das Hellempfinden<br />
* Y ist Leistungsproportional, wenn Lichtzusammensetzung (Leistungsdichte <math>\Theta (\lambda))</math> konstant bleibt<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* Leuchtdichte berechnet sich nach dem ''Abneyschen Gesetz'':<br />
: <math> Y = L = k \cdot \underline L^T \cdot \underline F </math><br />
:* <math>\underline L^T - </math> Leuchtdichtebeiwert: gibt an wie groß der Beitrag jedes Farbwertes der Farbvalenz zum Helleindruck ist, abhängig vom gewählten Farbwiedergabesystem<br />
* Leuchtdichte L <math>\ne</math> Intensität I<br />
: <math> I = \frac 1 3 (R+G+B)</math><br />
<br />
* die perzeptuelle Antwort unseres Auges auf die Leuchtdichte wird Helligkeit (Lightness) genannt<br />
: <math><br />
L^{\star} = \begin{cases}<br />
116 \cdot \sqrt [3] {\frac Y {Y_n}} -16, & \text{wenn } \frac Y {Y_n} > 0{,}008856\\<br />
903{,}3 \cdot {\frac Y {Y_n}}, & \text{wenn } \frac Y {Y_n} \le 0{,}008856<br />
\end{cases}<br />
</math><br />
<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: Eine Quelle die nur 18% der Luminanz einer Referenz hat, erscheint uns immer noch halb so hell wie die Referenz </span><br />
<br />
== Gammakorrektur und Luma ==<br />
* '''Gammakorrektur:'''<br />
** Aufgrund der Ansteuerung von CRT Monitoren und der verwendeten Phosphore ergibt sich ungefähr eine quadratische Abhängigkeit der Luminanz vom Videosignal<br />
** Die Luminaz der drein einzelnen Farbkanäle muss den gleichen Verlauf aufweisen. Sie dürfen sich nur in ihren Maximalwerten unterscheiden!<br />
*** Sonst ist es nicht möglich die Helligkeit zu ändern und dabei die Farbe konstant zu halten<br />
** Die Gammakorrektur sorgt dafür das die Farbwiedergabe auf dem Monitor linear verläuft und nicht quadratisch<br />
*** Notwendig damit wir die gleich Wahrnehmung erzielen können als währe das Kamera-Monitor System nicht vorhanden<br />
<br />
*'''Luma:'''<br />
** Luma ist die gewichtete Summe der drei Gammakorregierten Farbwerte R',G',B'<br />
** Damit ist Luma nicht gleich Luminanz<br />
<br />
*'''Brightness'''<br />
** Brightness ist ein Begriff der beschreibt wie stark eine Fläche Licht emmitiert oder sie hell sie erscheint<br />
** Besitzt kein festes Maß und wird daher sehr frei verwendet -> HSL<br />
<br />
== Farbsysteme, Farbräume, reduzierte Farbräume ==<br />
* Die Intensität einer Farbe ist <math> I = \frac{R + G +B}{3} </math><br />
* Wählt man die Intensität konstant mit <math>I=\frac{1}{3}</math> so ergibt sich eine Ebene die den RGB-Farb Würfel Diagonal schneidet und durch die R,G,B Eckpunkte geht<br />
* Jede Farbkoordinate kann auf diese Ebene projeziert werden -> Ermöglicht die Nutzung dieser Ebene als einfache Farbtafel<br />
** Diese Ebene kann dann noch auf die 0RG- Fläche des RGB Würfels projeziert werden ohne das die Ordnung der Farben gestört werden würde -> Der Farbton einer Farbe lässt sich allein durch r und g beschreiben<br />
* in die rg-Ebene können nun alle in RGB - darstellbaren Farben und alles existierenden Farben eingetragen werden<br />
** Danach erkennt man das sich technisch mit dem RGB-System nur ein kleiner Teil der exisiterenden Farben realisieren lässt<br />
<br />
= Das Normvalenz- oder XYZ-System (GF a 76 - 86) =<br />
* Alle Farbwerte sollen durch positive Farbwerte darstellbar sein<br />
** Für Farbmessung von Interesse<br />
** Das XYZ- Dreieck muss den spektralen Kurvenzug voll umschließen<br />
* Eine weitere Forderung ist das die Leuchtdichte als unabhängige Komponete auftreten soll<br />
* Die Fläche des Dreiecks soll so klein wie möglich sein<br />
* Die dadurch berechnbaren Normalvalenzen sind physikalisch nicht erzeugbar -> Die Spektralwertkurven für das System müssen berechnet werden<br />
** Die Berechneten Spektralwertkurven sind stets nichtnegativ -> immer positive Transmissionsgrade und Sensorempfindlichkeiten<br />
[[Bild:NORMXYZ1.JPG]]<br />
* Mit dem XYZ-System kann man nun Farbdreiecke vergleichen und Bewerten<br />
** Abstände, Fehler und Systemeigenschaften sollten aber in einem empfindungsmäßig gleichabständigen Farbraum bewertet werden (u'v'w' und CIELab)<br />
* '''Optimalfarbkörper'''<br />
** Beschreibt die Grenze aller darstellbaren Körperfarben<br />
** Zur Erstellung schneidet man rechteckförmige Stückchen aus dem Spektrum von Idealweißem Licht aus<br />
<br />
== Das UVW-System ==<br />
* Informationsgehalt der Farbe für den Menschen hängt davon ab welche Farbunterschiede er wahrnehmen kann<br />
* Vor allem ist das interessant wenn Bildverarbeitungsprobleme auf der menschlichen Wahrnehmung formuliert sind<br />
* xy-Farbtafel hat starke Unterschiede zwischen örtlichen Abstenden und empfindungsmäßigen Abständen -> ungeeignet<br />
* erste Lösung<br />
** lineare Transformation<br />
** W' -> Helligkeit<br />
** U' -> Rot-Grün Bundheit<br />
** V' -> Gelb-Blau Bundheit<br />
** Ergebnis<br />
*** Wesentlich besseres Darstellung der Empfindung (Faktor 10 gegenüber dem XYZ-System)<br />
* verbesserte Lösung<br />
** verwenden einer nicht linearen Abbildung (Auge wird mit berücksichtigt)<br />
<br />
== L*a*b* oder CIELAB-Raum ==<br />
* Gegenfarbmodell<br />
* empfindungsmäßig gleichabständiger Raum<br />
* Grundsätzlich zur Angabe von Farbabweichungen verwendet<br />
** Geeignet zur Bewertung von Druckern, Monitoren und Abweichungen von Nachfärbungen<br />
* als Farbdifferenzmaß wird der euklidische Abstand benutzt (<1 nicht mehr Wahrnehmbar)<br />
<br />
== L*u*v* oder CIELUV ==<br />
* für additive Mischung vorgesehen<br />
* wie der CIELAB- Raum ein empfindungsmäßiger gleichabständiger Raum<br />
<br />
== YCbCr - Crominanzwertsystem ==<br />
* Entwickelt damit Farbfernsehen und S/W-Fernsehen Parallel betrieben werden konnten<br />
* Crominanzwerte<br />
** sind von Leuchtdichte befreite Werte<br />
** verschwinden für alle unbunten Farben<br />
** Cr= R-Y, Cg = G-Y, Cb = B-Y<br />
** Das System aus CrCbCg und Y ist überbestimmt => Es reicht die Übetragung von Cr , Cb und Y<br />
* Da das Auge auf Helligkeitsunterschiede empfindlicher reagiert als auf Farbunterschiede können die Crominanzwerte mit geringerer Auflösung übertragen werden<br />
<br />
== ΘSY - System ==<br />
* Der Bunttonwinkel Θ berechnet sich aus dem Verhältnis der Crominanzwerte Cb und Cr<br />
* Die Sättigung S ist der Betrag des Vektors CrCb<br />
<br />
== HSI - Farbraum ==<br />
* Intensität: <math> I= \frac{R+G+B}{3} </math><br />
* Sättigung: <math> S = 1 - 3 \cdot min (r,g,b) </math><br />
* Hue: <math> H= \left\{ \begin{matrix}\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B\le G \\ 2\pi -\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B>G \end{matrix}\right . </math><br />
* Raum ist nicht gleichmäßig gefüllt<br />
* bei kleinen Intensitäten I in Buntton und Sättigung Instabil<br />
* Es kann bei Farbmanipulationen dazu führen das es keine Entsprechungen im RGB gibt<br />
** Lösungen:<br />
*** Dachförmige Begrenzung des HSI Raums -> sehr Aufwendig<br />
*** Normieren der Intensitäten -> Bild kann ins dunkle verschoben werden<br />
*** Maximalwert setzen -> Falsche Farbwerte (werden ins unbunte verschoben)<br />
*** proportionales skalieren bis Farbe im RGB-Würfel liegt<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
<br />
== HSL - Farbraum ==<br />
* Gern für Computergrafik verwendet<br />
* einfache Beziehungen<br />
* Die Verwendeten Biegriffe H,S,L entsprechen nicht der Bedeutung in der Farblehre und Form des Raumes<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
* Buntton ist extrem instabil bei kleinen Sättigungen<br />
* Form des Raumes ist unpraktisch<br />
<br />
= Farbmessung (GF 1 - 11) =<br />
<br />
* Farbmessung = Ermittlung der drei zu einer Farbvalenz gehörigen Farbmaßzahlen<br />
* 3 Messmethoden: <br />
** Vergleichsmethode oder Gleichheitsverfahren<br />
** Spektralverfahren<br />
** Dreibereichsverfahren<br />
<br />
== Gleichheitsverfahren ==<br />
<br />
* Vergleiche:<br />
** Vorlage mit additivem Gemisch<br />
** Vorlage mit Farbmusterkarten (DIN-Karten)<br />
* unverzichtbar bei physiologischen Untersuchungen<br />
* aufwendig und bei kleinen Probandengruppen ungenau<br />
* d.h. für technische Messungen ohne Bedeutung<br />
<br />
'''Messbedingungen nach DIN:'''<br />
* helladaptiertes und blendfreies Sehen<br />
* unbunter Messraum<br />
* neutrale Gesichtsfeldumgebung mit gleicher oder etwas kleinerer Leuchtdichte als im Messfeld<br />
* gut ausgeruhtes und neutral gestimmtes Auge<br />
* farbnormalsichtiger Beobachter<br />
<br />
== Spektralverfahren ==<br />
<br />
* zu messende Farbvalenz = Summe spektraler Farbvalenzen<br />
* greift auf gemessene Normspektralwertkurven zurück<br />
<br />
# '''spektrale Messung zur Ermittlung der Farbreizfunktion <math>\varphi (\lambda) </math>'''<br />
#* Selbststrahler: direkte Messung der Strahlungsfunktion <math>\rightarrow \varphi (\lambda)= S (\lambda)</math><br />
#* remittierende Vorlage: Remissionsfunktion der Vorlage messen, d.h. Strahlungsfunktion S ist vorher zu bestimmen und aus <math>\varphi (\lambda)</math> heraus zu rechnen <math>\rightarrow \varphi (\lambda)= \beta (\lambda) \cdot S (\lambda)</math><br />
# '''farbvalenzmetrische Auswertung'''<br />
#* wenn <math>\beta (\lambda)</math> ermittelt wurde, kann jede beliebige (tabellierte) Lichtquelle <math>S^{\ast} (\lambda)</math>eingesetzt werden<br />
#: <math><br />
\begin{bmatrix}<br />
X\\Y\\Z<br />
\end{bmatrix}<br />
= k \cdot<br />
\begin{bmatrix}<br />
\int \bar{x} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{y} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{z} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda<br />
\end{bmatrix}<br />
</math><br />
#* Normierungskonstante k:<br />
#** Selbststrahler: nur Farbwertanteile gefragt, d.h. k ist beliebig<br />
#** Körperfarben: Y für mattweißen Körper = 100, d.h. <math>k=\frac{100}{\int {S(\lambda) \cdot \bar{y}(\lambda) d \lambda}}</math><br />
<br />
'''Messgeometrien:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bildergalerie (45°,8°,Transmission) </span><br />
<br />
* ''45°-Geometrie'': Beleuchtung unter 45° schließt Glanzeinfluss aus <math>\rightarrow</math> Sensor blickt senkrecht auf Probe<br />
* ''8°-Geometrie'': Beleuchtung diffus über Ulbricht-Kugel <math>\rightarrow</math> Sensor blickt unter 8° auf Probe; Messung mit/ohne Glanz möglich<br />
* ''Transmissionsgeometrie'': Probe wird durchleuchtet<br />
<br />
== Dreibereichsverfahren ==<br />
* die drei Farbwerte werden direkt photometrisch gemessen<br />
* Filter und spektrale Empfindlichkeite der Strahlungsempfänger müssen an die spektrale Bewertungsfunktion angepasst sein<br />
* '''Luther-Bedingung:''' <math> \tau_x(\lambda) = \frac{c_x \cdot x(\lambda)}{s_1(\lambda)}</math><br />
** <math> \tau_x(\lambda) </math> ... Filtertransmission<br />
** <math>s_1(\lambda)</math> ... Sensorempfindlichkeit (hier im ersten Kanal)<br />
** <math>c_x</math> ... Gerätekonstante<br />
** Für den Y und Z Kanal ist die Formel analog<br />
* Der notwendige Filter kann gut durch ein Set von Schmalbandigen Filtern realisiert werden<br />
<br />
== Spektralmaskenverfahren ==<br />
<br />
* spezielles Dreibereichsverfahren<br />
* Lichtzerlegung erfolgt mit einem Prisma<br />
* Das zerlegte Lich beleuchtet eine Maske (Papier, Plaste, Metal .... ne richtige echte Maske)<br />
* Messen der spektralen Verteilung (CCD-Zeile)<br />
* Ähnlich dem Spektralverfahren nur das das spektrum bereits im analogen entsprechend gewichtet wird<br />
<br />
== Metamerie ==<br />
* zwei Farbproben die bei einer bestimmten Beleuchtung gleich aussehen können bei einer anderen Beleuchtung ganz anderst aussehen<br />
* Der Metermarie-Index beschreibt diesen durch Beleuchtungswechsel entstehenden Farbwechsel<br />
* KEIN Maß für die Farbkonstantheit sondern für den Unterschied von zwei Proben<br />
* Berechnung erfolgt im L*a*b* Raum <br> <math> M_T = \sqrt {(L_{1T}-L_{2T}+L_{2B}-L_{1B})^2 +(a_{1T}-a_{2T}+a_{2B}-a_{1B})^2+(b_{1T}-b_{2T}+b_{2B}-b_{1B})^2 } </math><br />
** T ... Testlicht<br />
** B ... Bezugslicht<br />
** 1,2 ... Probennummern<br />
<br />
= Klassifikation von Messaufgaben (GF 82 - 86) =<br />
<br />
# Messung von objektiven Eigenschaften, die sich in der Veränderung spektraler Charakteristika niederschlagen<br />
#* vordergründig ist Zusammenhang zwischen Veränderungen in den physikalischen Eigenschaften von Interesse (z.B. Waferinspektion)<br />
#* Zusammenhang sollte eindeutig und von hinreichender Empfindlichkeit sein<br />
#* Wahrnehmung unterschiedlicher Farben eher Nebeneffekt<br />
# Überwachung der Stabilität von farblichen Erscheinungen<br />
#* ist bei einer oder mehreren Beleuchtungen zu überwachen<br />
#* absolute Farbmessung nicht nötig; "Anlernen" auf Farben genügt<br />
#* Abstände im Farbempfinden müssen sich in gleicher Weise in Veränderungen der Sensorsignale wiederspiegeln<br />
# absolute Farbmessung<br />
#* d.h. Ermittlung der korrekten Farbvalenz unter beliebigen Messbedingungen<br />
#* Spektralwertkurven müssen realisiert werden<br />
# Messung des spektralen Remissions- und/oder Transmissionsverhaltens von Materialien<br />
#* ausschließlich spektrale Messverfahren<br />
#* Messung der Strahlungsfunktion und der remittierten Leistungsdichte<br />
#* Berechnung der Farbvalenz bei beliebiger Beleuchtung und des Metamerie-Index<br />
<br />
'''steigende Ansprüche mit steigender Nummerierung'''<br />
<br />
= Einfache Farbkalibrierung (GF 16 - 41) =<br />
* Farben sollen möglichst exakt Wiedergegeben werden<br />
<br />
== Ausgleich von Beleuchtungseinflüssen ==<br />
* Körperfarben werden durch ihre Remmision bestimmt <math> \beta </math><br />
* Bei unterschiedlicher Beleuchtung sehen Farben unterschiedlich aus aber das Auge kann sich an die Beleuchtung adaptieren<br />
** Funktioniert bei Fotos aber nicht -> Beleuchtungsausgleich ist wichtig<br />
** Bei Farbvergleich noch viel mehr<br />
** Wird realisiert durch Weißabgleich (auf integraler Farbebene nicht möglich )<br />
* Direkte Vermessung der spektralen Eingenschaften der Kamera nicht möglich (Da Werte in Kamera bereits verrechnet werden um z.B. die negativen Anteile der Spektralkurven zu realisieren)<br />
** sehr Aufwendig (Kamera auseinanderbasteln um an die echten werte zu kommen + das durchgehen durch das Spektrum in kleinen Schritten)<br />
* Daher Verwendung von Testfarben<br />
** Führt auf Lösung eines linearen Gleichungssystem<br />
** Für menschliches empfinden -> Optimieren im CIELAB-Raum<br />
* Vorsicht bei nichtlinearen Funktionen zur Farbkalibrierung -> Kann bei zu wenig Testfarben zu total falschen Ergebnissen führen !!<br />
<br />
= Color Management (F CM 1 - 20) =<br />
* verschiedene Geräte können verschiedenen Farben darstellen<br />
* verschiedene Geräte verwenden andere Grundfarben zum mischen<br />
* Mit Hilfe von Profilen (Tabellierung der Farbwerteumrechnungen) wird eine Konvertierung der Farben vom Geräteraum in den CIELab Raum bzw umgekehrt durchgeführt<br />
* in den Profilen wird auch vermerkt welche Farben darstellbar sind und welche nicht<br />
* Somit kann man eine "Druckvorschau" auch auf einem Monitor erreichen (natürlich nur für Farben die auf beiden Geräten dargestellt werden können)<br />
** Jedes Mapping der Farben (Gamut-Mapping stellt somit einen Kompromiss dar)<br />
**# Perceptual (Die Farbbeziehungen untereinander werden erhalten) Komprimierung des Gamuts bis er in den zur Darstellung verwendeten passt<br />
**# Colometrisch -> Exakte Reproduktion aller in beiden Gamuts darstellbaren Farben<br />
**## relativ -> weiß wird auf weiß abgebildet und alle anderen Farben relativ dazu<br />
**## absoult farbmetrisch<br />
**# Saturation, alle Farben außerhalb des Zielgamuts werden zugunsten der Sättiung verändert<br />
* Kalibrierung -> Versetzen des Gerätes in einen definierten, reproduzierbaren Zustand<br />
* Charakterisierung -> Modellierung eines Gerätes welches sich ein einem stabilen definierten Zustand befindet<br />
<br />
= Kameras (GF_Ka 1 - 12) =<br />
<br />
'''Einsatzfelder:'''<br />
* ortsaufgelöste Messung von Farbe<br />
* Aufnahme und Wiedergabe von True-Color Bildern<br />
* Aufnahme farbiger oder mehrkanaliger Bilder für die Verarbeitung/Analyse (Qualitätssicherung)<br />
* Photogrammetrische Anwendungen (Lösung des Korrespondenzproblems)<br />
* Radiometrische Anwendungen (Messen im Spektralbereich)<br />
<br />
'''Dreibereichsmessung:'''<br />
* setzt die Trennung von drei sich überlappenden Spektralbereichen voraus, die dann wellenlängenabhängig zu bewerten und zu integrieren sind<br />
<br />
== Dreichip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* optische Kanaltrennung und Bewertung<br />
* beste Bildqualität, da hohe Auflösung in allen drei Kanälen<br />
* keinen örtlichen Versatz der Pixel in den drei Farbauszügen<br />
* Filter einfacher und präziser zu realisieren<br />
* befinden sich z.B. als dichroitische Spiegel auf den Strahteilerprismen<br />
<br />
<span style="color:#ee0000;"> \\ Hot-Mirror-, Cold-Mirror-Korrektur????</span><br />
<br />
== Einchip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: doppelte Anzahl grüner Pixel wegen Schärfe, MTF des Auges </span><br />
<br />
* örtliche Kanaltrennung und Bewertung<br />
* Streifen- oder Mosaikfilterstrukturen auf den einzelnen Pixeln zur örtlichen Signaltrennung<br />
* 3 oder 4 unterschiedliche spektrale Auszuüge zur Erzeugung der Farbinformation<br />
* Matrix selbst kann Interline- oder Frame-Transfer-Matrix sein<br />
* kostengünstiger und kleiner als Dreichip-Kameras<br />
* Probleme:<br />
** Farbvalenzen aus örtlich versetzten Auszügen (z.B. Farbsäume an Kanten)<br />
** nicht korrigierbare Fehler aus Nichtlinearitäten und Dunkelsignalen bei der Bildung von Mischsignalen<br />
<br />
'''generelle Anforderungen an die Signalverarbeitung:'''<br />
<br />
* primäre Kamerasignale stellen keine farbmetrische Schnittstelle zur Verfügung, d.h. alle Bewertungsfunktionen sind nicht-negativ (Spektralwertkurven fordern aber negative Wichtungen)<br />
* je nach realisierten Filtern und Genauigkeitsansprüchen <math>\rightarrow</math> lineare Matrizierung (meist Kameraintern) oder komplexere Approximation<br />
* bei hohen Genauigkeitsansprüchen <math>\rightarrow</math> Umgehung der Kamerainternen Matrizierung, weil Verstärkungsfaktoren, Toleranzen, Temperaturdrift, Langzeitstabilität etc. nicht bekannt sind<br />
* insgesamt geringe Nichtlinearitäten der CCD's können in den Ansteuerbereichen der einzelnen Kanäle zu wesentlichen Fehlern führen:<br />
** Farbvalenz ändert sich kontinuirlich mit der Shutterzeit<br />
** Pixelweise DSNU- (Dunkelsignalungleichförmigkeit) und PRNU- (Hellsignalungleichförmigkeit) Korrektur vor Erzeugung der Farbvalenz erforderlich, da sich Festmusterrauschen nicht nur auf Intensität sondern auch auf Farbart auswirkt<br />
** Dunkelsignal verdoppelt sich alle 7K, Gleichanteil wird aber geklemmt<br />
** Lichtquellentyp und Langzeitverhalten wirken sich nicht nur Intensität sondern auch auf Farbtemperatur aus<br />
<br />
'''4 spektrale Bereiche:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* vorteilhaft zur Erzeugung von Farbdifferenzsignalen für die TV-Kompatibilität<br />
* im Field-Integration-Mode werden Mischsignale gebildet, die die erforderliche Signalkorrektur für hohe Ansprüche behindern<br />
* Nichtlinearität der Ausgangsverstärker wirkt sich auf Korrektur der primären Mischsignale aus<br />
<br />
== Sequentielle Einchip-Kamera ==<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* zeitliche Kanaltrennung und Bewertung<br />
* relativ genaue Approximation der Spektralwertkurven möglich<br />
<br />
== Elektrisch steuerbare Filter ==<br />
<br />
* über die Wellenlängenabhängigkeit der Eindringtiefe der Photonen und die Steuerbarkeit der Tiefe der Potentialmulden der sensoren lassen sich steuerbare spektrale Empfindlichkeiten erzeugen<br />
<br />
= Verarbeitung von Farbbildern (1 - 31) =<br />
* Das unabhängige verarbeiten der Farbkanäle eines Farbbildes führt zu Nebeneffekten wie Farbsäume<br />
* Die höhere Vielfalt des mehrdimensionalen Raumes von Farbbildern kann Vorteilhaft genutzt werden für Pixelklassifikation, Segmentierung <br />
* Abstände, Mittlere Werte und örtliche Veränderungen sind in empfindungsmäßig gleichabständigen Räumen zu definieren und zu bewerden<br />
<br />
== Histogramme und Statistiken für Farbbilder ==<br />
* Farbbilder liefern dreidimensionale Häufigkeitsverteilungen im Farbraum → können als Approximation der entsprechenden 3D-Dichten verwendet werden<br />
* statistische Zusammenhänge zwischen den Kanälen werden in mehrdimensionalen Dichten betrachtet<br />
** Für Handauswertung meist nur 2D-Dichten, wegen der Übersicht<br />
** Für maschinelle Auswertung können diese dichten auch dreidimensional werden<br />
** für die parametrische Darstellung der Cluster werden meist multivariante Gaußverteilungen eingesetzt<br />
*** Einr Gaußverteilung ist für die Beschreibung eines Bildes mit mehreren Objekten nicht geeignet<br />
*** Die Kovarianzmatrix einer solchen "Approximation" kann aber gut zur Einschätzung der Streuung und der Mittelwerte in dem Bild eingesetzt werden<br />
<br />
=== Histogramm - Modifikationen ===<br />
* Contrast Streching, Polygonal Image Scaling, Histogram-Equalisation Siehe [[Grundlagen der Bildverarbeitung und Mustererkennung#homogene Punktoperationen|Grundlagen der Bildverarbeitung]]<br />
* Manipulation kann in verschiedenen Farbräumen ausgeführt werden (RGB,HSI,...)<br />
** In nicht empfindungsmäßig gleichabständigen Räumen muss die Transformation nicht unbedingt zum Ziel führen<br />
==== Manipulation im Farbraum RGB ====<br />
* ist der Farbraum in dem die Daten häufig vorliegen<br />
* Wirkung kann auf Grund der starken korrelation der RGB Werte bei geringen Sättigungen ausbleiben<br />
* Farbverfälschung wenn einzelne Kompontenen unabhänig von einander behandelt werden<br />
* hohes apriori-Wissen notwendig<br />
* wenn Falschfarbdarstellung gewünscht ist kann dies das mittel der Wahl sein<br />
<br />
==== Manipulationen im Farbraum HSI ====<br />
* unproblematisch in Bezug auf Farbverfälschungen<br />
* Zielsetzungen können sich einfacher beschreiben lassen (ähnelt der Beschreibung von Farbe durch den Menschen)<br />
* unabhängige Komponente (Intensität)<br />
* Kontrastverbesserung durch Sättigungsausgleich ohne Farbveränderung möglich<br />
* Stabilitätsprobleme nahe den unbunten Farben<br />
# '''Ausgleich des Intensitätshistogramms'''<br />
#* Werte möglich die keine entsprechung mehr im RGB haben → müssen geeignet herruntergerechnet werden<br />
#* bei kleinen Intensitäten sind die Bunttöne instabil → ausschließen von Veränderungen<br />
# '''Sättigungsausgleich'''<br />
#* Modifikation der Sättigung unter Beibehaltung des Bunttones<br />
#* Bei kleinen Sättigungen und kleinen Intensitäten ist der Buntton instabil → Ausschließen<br />
#* Histogramm über alle Bunttöne ist häufig verschmiert → besser Histogramm über Buntton Segmente<br />
# '''Bunttonausgleich'''<br />
#* Ziel sind Farbfalschbilder um Objekte besser unterscheiden zu können<br />
#* bei zu großen Buntton Änderungen wird die Interpretierbarkeit nur bei homogenen Flächen verbessert, meist wird sie eher verschlechtert<br />
#* Unsicherheit des Bunttons → bei geringen Sättigungen und Intensitäten ist der Buntton auszuschließen<br />
<br />
== segmentgesteuerte Farbvalenztransformationen ==<br />
* Globale Statistiken werden häufig durch nicht interressante Objekte dominiert<br />
* Ausweg ist das Betrachten von Ausschnitten und anwenden der Transformationen auf die Ausschnitte<br />
* erfordert zu erst das Segmentieren des Bildes<br />
<br />
= Referenzfreie Farbadaption auf Basis des 3D-Histogramms (HuS 32 - 39 ) =<br />
* unter bestimmten umständen kann auf eine Kalibrierung der Kamera mittels Referenzfarben verzichtet werden<br />
* Zur Korrektur soll die parametrische Approximation der 3D-Histogramme durch multivariante Gaußverteilungen genutzt werden<br />
== Vorraussetzungen für die Anwendbarkeit ==<br />
* Strukturierte Szene mit mehreren ntürlichen Objekten, die gleichmäßig über den Bunttonwinkel verteilt sind und durchschnittlichen Sättigungsgrad aufweisen<br />
* Langgestreckter SW-Prozess im Vergleich zum Rot-Grün und Blau-Gelb Prozess<br />
<br />
== Vorgehensweise ==<br />
* Korregieren von "vermutlichen" Abweichungen des Bildes in der Unbuntheitsachse<br />
* Dazu Ermitteln der Hauptachsen mit PCA<br />
* Drehen der Hauptachse in den SW-Prozess<br />
* Rücktransformation und Darstellung<br />
<br />
= Histogrammbasiertes Farbmatching(1 - 15) =<br />
* Histogramme sind im 2D Bild invariant gegenüber Rotation, Translation und Maßstab (wenn die Angaben relativ erfolgen !)<br />
* Histogramme sind auch relativ stabil gegenüber moderaten Verdeckungen und 3D-Rotation<br />
* Grobe Quantisierung der Histogramme um Fehlertoleranz zu erhöhen<br />
* Damit können Histogramme zur Objekterkennung eingesetzt werden → Bezeichnet als Color Indexing<br />
<br />
== uniformes Binning ==<br />
* einteilen der Farben in ein gleichverteiltes Histogramm<br />
* Suche in einem Bild den Ausschnitt welcher eine minimale Distanz zum Referenzbild hat<br />
* Als Abstandsmaß verwendet werden die Histogramme genutzt<br />
** Summe der Quadratischen Differenzen (Histogramme als Vektoren betrachtet und dann den euklidischen Abstand berechnet ohne Wurzel)<br />
** Earth Movers Distance (Berechnen was sich wohinverteilt haben könnte ... erfordert die Lösung des Transportproblems)<br />
* einfach aber die Bins ändern sich Sprunghaft, vor allem dann wenn Farben knapp an den willkürlichen Bingrenzen liegen<br />
<br />
== Unscharfe Chroma-Orts-Histogramme ==<br />
* Nachteile des uniformen Binning sollen überwunden werden<br />
* Alle Pixel bekommen eine unscharfe Klassenzugehörigkeit (Binnzugehörigkeit) je nach Abstand zum entsprechenden Binnmittelpunkt (wie bei [[Softcomputing|Fuzzy-C-Means]])<br />
** Ein Parameter ermöglicht dabei die Verunschärfung einzustellen (von total unscharf bis zum festen Binning)<br />
* Auch der absolute Ort der Segmente (aus denen die Histogramme erstellt werden) soll mit verwendet werden<br />
** Dazu wird das Bild in entsprechende Bereiche geteilt (8x8,16x16,...)<br />
** Alle Blöcke werden durchnnummeriert<br />
** Auch hier kommt es zu harten Umbrüchen wenn Pixel knapp an den Grenzen liegen → auch hier verunschärfen<br />
** Welche Indizees haben die Nachbarn? (Nachbarschaft in den Indizees der Blöcke heißt nicht gleich 2D-Nachbarschaft)<br />
<br />
== Cluster mittels Graphenansatz ==<br />
* Ziel ist es:<br />
** Sprunghafte Änderung der Binns zu verhindern<br />
** wenige Merkmale zu verwenden<br />
** Eng beieinander liegende Maxima trotzdem unterscheiden zu können<br />
* Verwendete Bilddaten:<br />
** Farbwinkelhistogramm, wenn Sättigung der Farben ausreichend ist<br />
** Intensitätsdiagramm, wenn Sättigung der Farben zu gering wird<br />
* Vorgehen:<br />
** Jeder Wert im Histogramm zeigt auf den Größten in seiner Nachbarschaft<br />
** Das Maximum zeigt auf sich selbst → Wird Merkmal<br />
** Weiteres Merkmal ist die Fläche die zum Maximum gehört (Nachbarn die direkt bzw. indirekt auf das entsprechende Maximum zeigen)<br />
* Match:<br />
** Finde ein Tupelpaar (Maxima in Referenzhistogram und Suchhistogram mit dem geringsten Abstand)<br />
** Ziehe gemeinsame Fläche von jedem Tupel des Paares ab<br />
** summiere gemeinsame Fläche (?)<br />
** Wiederhole bis sich keine Tupelpaare mehr bilden lassen<br />
** beziehe die laufende Summe auf das Maximum der Summe der ursprünglichen Flächen<br />
<br />
= Störunterdrückung (SU 1 - 16) =<br />
* Für nachfolgende Verarbeitungsschritte ist die Störunterdrückung sehr wichtig<br />
* Verschiedene verfahren der Rauschunterdrückung sind in [[Grundlagen der Bildverarbeitung und Mustererkennung#Lokale Operatoren zur Bildverbesserung (LOa 1 - 44) |BV]] eingeführt worden<br />
<br />
== Störunterdrückung durch Faltungsfilter ==<br />
* Anwendung wird einfach vektoriell durchgeführt (als würde man drei unabhängige Bilder gleichzeitig Filtern wollen)<br />
* es entstehen neue Farbtöne an den Übergängen zwischen Farben<br />
* im HSI Farbraum ist eine getrennte Betrachtung der Farbe und der Sättigung/Intensität möglich<br />
* Buntton ist zyklisch → muss bei der Mittelung beachtet werden<br />
* in der Farbe kann stärker gemittelt werden als in der Helligkeit (Auge nimmt Farbveränderungen schlechter wahr)<br />
* Komplexe Zahlen bieten sich hier als Rechenmittel an<br />
<br />
== adaptive gewichtete Mittelung ==<br />
* detailerhaltende Fähigkeiten von Filtern wegen der Farbsäume besonders von Interesse<br />
* Abstände verkomplizieren sich im Vergleich zu Grauwertbildern (Vektorabstandsmaße, Winkeldifferenzen,...) <br />
* Vorgehen nach dem Berechnen des Abstandes dann wieder Analog zur Grauwertfilterung<br />
<br />
== Medianfilterung ==<br />
* Problem bei der Übertragung des Rangordnungsgedankens auf Vektoren<br />
** Komponentenweises Vorgehen ist nicht geeignet (absolute Farbverfälschungen möglich)<br />
** Suche des besten Vertreters des SETS (wenn der verwendete Media im SET ist werden keine zu falschen Farben gewählt/gesetzt)<br />
*** kleinste Abstandssumme zu allen anderen Pixeln<br />
<br />
== Kombination von Averaging und Medianfilterung ==<br />
* Medianfilter ist gut für Impulsrauschen, schlecht bei Gauß hier ist Average gut<br />
* Bei den Filtern gibt es keinen unterschied zu den Grauwertbildern (unterschied besteht nur in der Realisierung der verwendeten Media/Average Filter nicht in ihrere Kombination)<br />
<br />
== Vektor-Richtungs-Filter ==<br />
* '''Basic Vecotr Directional Filter'''<br />
** Winkel zwischen Farbvalenzen als Distanzmaß<br />
** Ergebnis ist die Farbvalenz mit der kleinsten Winkeldifferenzsumme zu allen Valenzen des Fensters<br />
** Achromatische Rauschkomponenten werden nicht beseitigt<br />
* '''Generalized Vector Directional Filter '''<br />
** Suche nach den besten Vektoren aus Sicht der Richtung<br />
** Medianfilterung der Beträge der Vektoren<br />
* '''Directional Distance Filter'''<br />
** Vermeiden der Ineffizenz des GVDF Filters durch ein gemischtes Distanzmaß (Betrag und Winkel gleichzeitig)<br />
<br />
= Kantendetektion in Farbbildern (1 - 21) =<br />
* Wichtig für Segmentierung, Bildanalyse und Bildverstehen<br />
* [[Grundlagen der Bildverarbeitung und Mustererkennung#Kantendetektion (LK 1 - 38)| Kantenfilter]] bereits aus BV bekannt<br />
# '''Vektrogradient'''<br />
#* Berechnen der Jacobi-Matrix<br />
#* Wurzel aus dem größten Eigenwert ist der Vektorgradient<br />
#* Extrem Rechenaufwendig<br />
# '''Mittelwert der Richtungsableitungen'''<br />
#* Entspricht dem Gradienten im Intensitätsbild<br />
#* Zwei engegengesetzte Gradienten in unterschiedlichen Farben können sich gegenseitig aufheben → der Gradient der dritten Farbe dominiert egal wie klein er ist<br />
# '''Maximaler Gradient'''<br />
#* Suche nach dem Gradienten mit dem größten Betrag<br />
#* Korrelation der einzelnen Gradienten ist nicht von Bedeutung<br />
<br />
= Farbpixelklassifikation (Farbpixelklassifikation 1 - 21) =<br />
* Die Farbvalenzen bilden die Merkmale der Pixel<br />
* Anzustrebende Eigenschaften<br />
** Gute Beschreibung der Klassencluster und gute Trenneigenschaften<br />
** Einfache Belehrbarkeit (Aus Beispielen oder Expertenwissen)<br />
** Echtzeitfähigkeit<br />
** möglichst frühe Stufe der Verarbeitungskette ("Anspruchslosigkeit an das Bild")<br />
** Nutzen von Klassenzugehörigkeitsmaßen<br />
<br />
== optimaler Klassifikator ==<br />
* basiert auf dem Bayes-Theorem<br />
* findet die optimale Klassenentscheidung<br />
* Jeder Datenpunkt wird in die Klasse eingeordnet zur der er am Wahrscheinlichsten gehöhrt und bei der er die kleinsten Kosten für die anderen Klassen verursacht<br />
** Benötigt eine Risikofunktion die Angibt wie groß die Kosten bei Fehlklassifikation zwischen zwei Klassen sind<br />
*** Meist unbekannt und deswegen wird davon ausgegangen das die Kosten für jede Fehlklassifizierung gleich sind<br />
*** Kosten können durchaus auch bei richtiger Klassifikation definiert werden<br />
** Benötigt die Wahrscheinlichkeitsverteilung der Klassen im Raum (Meist unbekannt → Problem)<br />
*** können beliebig sein werden aber meist durch Gaußfunktionen approximiert<br />
*** in der Lernphase werden die Parameter dieser Verteilung geschätzt<br />
* Da Wahrscheinlichkeitsverteilung meist unbekannt ist, wird der Klassifikator ehr genutzt um einen anderen Klassifikator zu bewerten, wenn man eine bestimmt Wahrscheinlichkeitsverteilung festlegt (wie optimal ist der andere Klassifiaktor)<br />
<br />
== Maximum-Likliehood-Klassifikator ==<br />
== Malanobis-Abstandsklassifiaktor ==<br />
<br />
= Clusterverfahren (Farbpixelklassifikation 19 - 45) =<br />
<br />
= Segmentierung (Seg 1 - 8) =<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Grundlagen_der_Farbbildverarbeitung&diff=6987Grundlagen der Farbbildverarbeitung2009-03-16T11:39:32Z<p>DarkGhost: /* Farbpixelklassifikation (Farbpixelklassifikation 1 - 21) */</p>
<hr />
<div>Link zum [http://www.zbs-ilmenau.de/intern/vip-toolkit/index.php Vip toolkit]<br />
= Einführung (GF_a 8 - 47) =<br />
<br />
== Geschichtliches zur Farbe ==<br />
<br />
=== Newton ===<br />
<br />
* 1672: New Theory about Light and Colours<br />
** Sonnenlicht = Mischung einzelner Farben<br />
** Spektralfarben sind objektive Eigenschaft des Lichtes<br />
<br />
[...]<br />
<br />
=== Goethe ===<br />
<br />
[...]<br />
<br />
== Begriff der Farbe ==<br />
<br />
* '''Farbe im engeren Sinn, stellt eine spezielle menschliche Sinneswahrnehmung dar'''<br />
* <math>\Phi_i = \int_{\Delta \lambda_i} \varphi_{\lambda} (\lambda) d \lambda</math><br />
* Leistungsdichte <math>\phi (\lambda)</math> stellt dagegen den Farbreiz dar, der die Farbempfindung hervorruft<br />
* Vektoren <math>\underline \Phi</math> sind je nach Dimension mehr oder minder genaue Approximationen des Farbreizes<br />
<br />
* Orientierung am menschlichen visuellen System und die Betrachtung psychologischer und physiologischer Grundlagen sind von Interesse:<br />
** zur richtigen Bewertung der Schwierigkeiten und Herausforderungen bei der Schaffung technischer Lösungen<br />
** zur Anpassung technischer Lösungen der Bildwiedergabe an das visuelle System<br />
** zur Nutzung optimaler Naturprinzipien für technische Lösungen<br />
** weil technische Systeme im allgemeinen auf dem inneren Modell des Menschen von der Welt beruhen und dieses Modell in hohem Maße durch den visuellen Kanal des Menschen beeinflusst ist<br />
** weil optoelektronische Sensoren, Bildverarbeitung und Bildanalyse wichtige Schnittstellen zwischen Mensch und Maschine darstellen<br />
**weil viele Objekteigenschaften durch visuelle Eindrücke beschrieben werden<br />
<br />
* menschliches Auge kann ca. 100 Graustufen / ca. 300 000 Farben unterscheiden<br />
<br />
* Drei grundsätzliche Anwendungen von Farbinformation:<br />
** Pseudokolorierung<br />
** Falschfarbendarstellung<br />
** Echtfarbdarstellung (True Color) <math>\rarr</math> hier Schwerpunkt<br />
<br />
== Farbtäuschung ==<br />
<br />
* Zuordnung zwischen Physik und Wahrnehmung nur eindeutig wenn bunte Dinge isoliert betrachtet werden<br />
* Werden bunte Objekte in bunte Umgebungen eingebettet/bewegt, dann können abweichende Farbwahrnehmungen auftreten, so genannte Farbtäuschungen<br />
* es existieren unterschiedliche Arten solcher Täuschungen:<br />
** ''Farbinduktion oder simultaner Farbkontrast'' (Farbe wird durch ihre Umgebung modifiziert)<br />
** ''Farbkonflikt'' (es konkurrieren verschiedene Sehinformationen miteinander)<br />
** ''Subjektive Farben'' (es werden bunte Farbtöne wahrgenommen, die nicht vorliegen)<br />
<br />
'''Simultaner Farbkontrast:'''<br />
* erstmals 1839 beschrieben<br />
* wo der Effekt entsteht (Auge, Cortex) ist unklar<br />
<br />
'''Farbinduktion:'''<br />
* bei kleinteiligen, sich wiederholenden Strukturen erfolgt Angleichung<br />
* kann zur Rauschunterdrückung oder zur Unterdrückung von Feintexturen zugunsten der Erkennung größerer Objekte wichtig sein<br />
<br />
'''Farbkonflikt:'''<br />
* Formen und Strukturen konkurrieren mit Farben ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf White'sche Illusion])<br />
<br />
'''Subjektive Farben:'''<br />
* durch Bewegung ist es möglich Farben zu erzeugen die ursprünglich nicht vorhanden waren ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf Drehwurm in Farbe])<br />
<br />
== Farbwahrnehmung beim Menschen ==<br />
<br />
[...]<br />
<br />
=== Rezeptive Wahrnehmung ===<br />
* 1807 stellte Young die Hypothese auf das Farbsehen auf drei Arten von Sinneszellen beruht (rout,grün,blau)<br />
* erst 1964 konnten dies bewiesen werden, durch die Messung der Absorptionsspektren<br />
*[[Datei:Pdt-kurven.svg]]<br />
<br />
=== Postrezeptive Wahrnehmung ===<br />
* Mit dem 3 Farbenmodell konnten einige psychologische Erscheinungen nicht erklärt werden<br />
** Es werden 4 Farben als besonderst "rein" empfunden (Rto, Geln,Grün, Blau)<br />
** Unbunte Farben werden werden als das fehlen von Farben wahrgenommen<br />
** Schwarz schein gleichberechtigt zu Weiß<br />
** keine wahrgenommene Farbe erscheint zugleich rötlich und grün<br />
* das führte zur Gegenfarbentheorie die anfangs nur Psychologisch begründet war 1958 aber physiologisch Nachgewiesen werden konnte<br />
** Rot - Grün<br />
** Gelb - Blau<br />
** Schwarz - Weiß<br />
* → CIELab-Farbraum<br />
<br />
=== Kortikale Kodierung ===<br />
* Weder die 3 Farbentheorie noch die Gegenfarbentheorie beschreiben die bewusste Wahrnehmung des Menschen<br />
* Deshalb erweitertes Modell<br />
** Farbton / Buntton beschreibt die als besonderst rein empfundenen Spektralfarben<br />
** Sättigung beschreibt wie stark eine Farbe verblasst ist<br />
** Helligkeit beschreibt, wie hell oder dunkel eine Farbe ist<br />
* Wo/Wie genau die neuronale Verarbeitung erfolgt, ist noch nicht sicher belegt<br />
<br />
== Die Ordnung in der Welt der Farben ==<br />
* Newton kannte die Wellenlänge noch nicht → er ordnete die Farben nach dem Regenbogen<br />
* Goethe verwendete das Gegenfarbenmodell<br />
* Munsell schlug 1905 ein Farbordnungssystem vor bei dem alle Abstände zwischen den Farben Empfindungsmäßig gleich sind<br />
** führt zu einem geometrisch nicht regelmäßigen Körper<br />
<br />
== Das Modell der Farbe ==<br />
* '''Definition'''<br />
** Farbe ist diejenige Gesichtsempfindung eines dem Auge strukturlos erscheinenden Teils eines Gesichtsfeldes durch die sich diser Teil bei einäugiger Betrachtung mit unbewegtem Auge von einem gleichzeitig gesehenen ebenfalls strukturlos angrenzendem Bezirk allein unterscheidet (unbunte Farben: Schwarz, Weiß und Graustufen, bunte Farben: Helligkeit; Buntheit setzt sich aus Buntton und Farbsättigung zusammen)<br />
** Farbe ist durch Helligkeit, Buntton, Sättigung eindeutig bestimmt → 3D Modell<br />
*** drei linear unabhängige Größen<br />
*** Additive Mischung zur Reproduktion von Farbe (aus Rot, Grün, Blau)<br />
*** drei linearunabhängige Größen spannen immer einen Raum auf → Rot,Grün und Blau werden die Achsen dieses Raumes<br />
<br />
=== Farbvalenz ===<br />
* Mit unserem Modell läßt sich jede Farbe als linearkombination unserer drei Basisvektoren aufschreiben<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
** <math> \vec F</math> ... Farbvalenz<br />
** <math> \vec r, \vec g, \vec b </math> ... die drei Basisvektoren die den Raum aufspannen (Rot, Grün und Blau)<br />
** <math> R,G,B, |\vec F| </math> ... die Farbwerte<br />
** <math> \vec r \cdot R, \vec g \cdot G, \vec b \cdot B </math> ... die drei Primärvalenzen<br />
* Ermittelt werden die Farbwerte mit Hilfe der Vergleichsmethode<br />
** Eine Person vergleicht ein Target mit einer Farbe die aus den drei Primärvalenzen gemischt wird<br />
** wenn die Empfindung der beiden Farben gleich ist, dann notieren wir die Werte<br />
* Innere Farbmischung<br />
** das Target wird mit weißen Licht beleuchtet und wir drehen nur an dem Farbmischgerät<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
* Äußere Farbmischung<br />
** Wir beleuchten das Target mit farbigen Lichte<br />
**<math> \vec F+ B \cdot \vec b = R \cdot \vec r + G \cdot \vec g \rightarrow \vec F = R \cdot \vec r + G \cdot \vec g - B \cdot \vec b</math><br />
<br />
=== Farbreizmetrik ===<br />
* Die Farbreizfunktion <math> \varphi_\lambda</math> beschreibt die spektrale Zusammensetzung der Farbempfindungen<br />
*# Selbstleuchtende Objekte<br />
*#* <math> S_\lambda (\lambda)</math> beschreibt die spektrale Verteilung der Quelle<br />
*#* Wahrnehmung: <math> \varphi_\lambda = S_\lambda</math><br />
*# Auflicht Vorlagen<br />
*#* <math>\beta_\lambda(\lambda)</math> beschreibt den spektralen Remisionsgrad der Vorlage<br />
*#* Wahrnehmung: Licht reflektiert von der Vorlage <math> \varphi_\lambda = S_\lambda \cdot \beta_\lambda</math><br />
*# Durchlichtvorlagen<br />
*#* <math>\tau_\lambda(\lambda)</math> spektraler Transmissionsgrad der Vorlage<br />
*#* Wahrnehmung von Licht welches die Vorlage durchdrungen hat <math>\varphi_\lambda= S_\lambda \cdot \tau_\lambda</math><br />
* Damit haben folgende Faktoren Auswirkung auf die Wahrgenommene Farbe<br />
*# Die Beleuchtung des Objektes (Spektrale Zusammensetzung des Lichtes der Lampe)<br />
*# Das Remmisionsverhalten der beleuchteten Oberfläche<br />
*# Die wellenlängenabhängige Empfindlichkeit der drei Zapfen des Auges<br />
* Es besteht die Möglichkeit die pdt Kurven direkt zur Beschreibung des Farbempfindens zu nutzen<br />
* Die Farbwerte könnte man dann wie folgt ermitteln: <math> \left(\begin{matrix}P\\D\\T\end{matrix}\right)=k\int_{380\mathit{nm}}^{780\mathit{nm}}\varphi (\lambda )\cdot \left(\begin{matrix}p(\lambda )\\d(\lambda )\\t(\lambda )\end{matrix}\right)d\lambda </math><br />
* Für die technische Darstellung von Farbe werden allerdings R,G,B werte benötigt<br />
* Die dafür notwendigen Spektralwertkurven können mit Hilfe der Vergleichsmethode ermittelt werden<br />
* Man erhält damit folgende Kurven<br />
[[Datei:SpektralwertfunktionenRGB.jpg]]<br />
* Mit der gleichen Formel wie bei der pdt Kurve lassen sich nun die R,G,B Werte rechnerisch ermitteln<br />
<br />
== Farbanalyse, Zusammenhang mit der Farbwidergabe ==<br />
* Das Kammera - Monitor System soll die Farbe exakt wiedergeben<br />
* Der Monitor verwendet EBU Phosphore für die Farbdarstellung<br />
** haben selbst Spektralwert kurven => keine Monochromatischen Lichter mehr<br />
* Die notwendigen spektralwertkurven die die Kamera realisieren muss um die Bilder auf dem Monitor exakt darzustellen lassen sich mit Hilfe der pdt Kurven herleiten (Über forderung der Gleicheit der Farben)<br />
* Sie besitzen stark negative Anteile => Auch die Filter der Kamera müssten negative Transsmissionsgrade besitzen<br />
** technisch ist das nicht möglich<br />
* es bleibt also nur die Möglichkeit die notwendigen Parameter zur Ansteuerung des Monitors aus positive one-peak Kurven zu berechnen<br />
<br />
== Subtraktive Farbmischung ==<br />
* Die Subtraktive Farbmischung lässt sich auf die Multiplikation der Transmissionsgrade zurückführen (ein Filter lässt 50% rotes licht durch, wenn man zwei dieser Filter hintereinander legt, dann geht nur noch 25% rotes Licht durch die Anordnung (0.5*0.5 = 0.25) )<br />
* wenn <math> \tau_0 </math> die Transmission eines Filters für die normierte Dicke 1 und die normiert Dichte 1 ist dann kann man<br />
** mit dem Lambertschen Absorbtionsgesetzt die Absortption von dickern/düneren Material berechnen <br> <math> \tau = [ \tau_0]^w </math><br />
*** w ... Dicke des Materials im Verhältnis zum norm Material<br />
** mit dem Beerschen Gesetz die Transmission von Meterial mit anderer Dichte berechnen <br><math> \tau = [ \tau_0]^c </math><br />
*** c... Das Verhältnis der neuen zur alten Dichte<br />
** kann man auch kombinieren zu (Lambert-Beersches Gesetz)<br />
** <math> \tau = [ \tau_0]^{c \cdot w} </math><br />
* Da sich die Transmission Multiplikativ zusammensetzt wird auch gerne mit dem logarithmus der Transmission gerechnet (optische Dichte)<br />
**<math> D = - lg \tau = lg \frac{1}{\tau}</math><br />
** Damit vereinfacht sich das Lambert-Beersche gesetz zu: <math> D = c \cdot w \cdot D_0</math><br />
* selbstverständlich sind die Transmission <math>\tau</math> und die optische Dichte D von der Wellenlänge abhänig ... zur Übersichtlichkeit wurde das in den Formeln nur weggelassen<br />
* Bei einem Papierbild kommt zu dem Filter noch die Reflexion an der Farboberfläche und an der Papieroberfläche<br />
** Beachte das Licht was an der erste Schicht wegreflektiert wird kann icht tiefer eindringen. Nur noch <math> (1-\beta)*S </math> dringt an Licht durch den ersten Filter!<br />
*** <math> \beta </math> ... Remmisionsgrad der ersten Farbe<br />
*** <math> S </math> ... Spektrale Verteilung der Lichtquelle<br />
<br />
= Farbmetrische Schnittstellen - Farbräume (GF a 49 - 55) =<br />
<br />
<pre><br />
Unterschiedliche bildgebende Systeme<br />
z.B. Farbkameras<br />
Farbscanner<br />
Spezialkameras<br />
</pre><br />
'''Widerspruch''' <math>\updownarrow</math> Farbmetrische Schnittstelle<br />
<pre><br />
Unterschiedliche Bildwiedergabesysteme<br />
"True-Color-Darstellung"<br />
- unterschiedliche Monitore, Beamer, Drucker etc.<br />
</pre><br />
<br />
== Leuchtdichte (Luminanz) ==<br />
<br />
* Luminanz Y ist die Strahlungsleistung, bewertet mit der spektralen Empfindlichkeitsfunktion des Auges für das Hellempfinden<br />
* Y ist Leistungsproportional, wenn Lichtzusammensetzung (Leistungsdichte <math>\Theta (\lambda))</math> konstant bleibt<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* Leuchtdichte berechnet sich nach dem ''Abneyschen Gesetz'':<br />
: <math> Y = L = k \cdot \underline L^T \cdot \underline F </math><br />
:* <math>\underline L^T - </math> Leuchtdichtebeiwert: gibt an wie groß der Beitrag jedes Farbwertes der Farbvalenz zum Helleindruck ist, abhängig vom gewählten Farbwiedergabesystem<br />
* Leuchtdichte L <math>\ne</math> Intensität I<br />
: <math> I = \frac 1 3 (R+G+B)</math><br />
<br />
* die perzeptuelle Antwort unseres Auges auf die Leuchtdichte wird Helligkeit (Lightness) genannt<br />
: <math><br />
L^{\star} = \begin{cases}<br />
116 \cdot \sqrt [3] {\frac Y {Y_n}} -16, & \text{wenn } \frac Y {Y_n} > 0{,}008856\\<br />
903{,}3 \cdot {\frac Y {Y_n}}, & \text{wenn } \frac Y {Y_n} \le 0{,}008856<br />
\end{cases}<br />
</math><br />
<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: Eine Quelle die nur 18% der Luminanz einer Referenz hat, erscheint uns immer noch halb so hell wie die Referenz </span><br />
<br />
== Gammakorrektur und Luma ==<br />
* '''Gammakorrektur:'''<br />
** Aufgrund der Ansteuerung von CRT Monitoren und der verwendeten Phosphore ergibt sich ungefähr eine quadratische Abhängigkeit der Luminanz vom Videosignal<br />
** Die Luminaz der drein einzelnen Farbkanäle muss den gleichen Verlauf aufweisen. Sie dürfen sich nur in ihren Maximalwerten unterscheiden!<br />
*** Sonst ist es nicht möglich die Helligkeit zu ändern und dabei die Farbe konstant zu halten<br />
** Die Gammakorrektur sorgt dafür das die Farbwiedergabe auf dem Monitor linear verläuft und nicht quadratisch<br />
*** Notwendig damit wir die gleich Wahrnehmung erzielen können als währe das Kamera-Monitor System nicht vorhanden<br />
<br />
*'''Luma:'''<br />
** Luma ist die gewichtete Summe der drei Gammakorregierten Farbwerte R',G',B'<br />
** Damit ist Luma nicht gleich Luminanz<br />
<br />
*'''Brightness'''<br />
** Brightness ist ein Begriff der beschreibt wie stark eine Fläche Licht emmitiert oder sie hell sie erscheint<br />
** Besitzt kein festes Maß und wird daher sehr frei verwendet -> HSL<br />
<br />
== Farbsysteme, Farbräume, reduzierte Farbräume ==<br />
* Die Intensität einer Farbe ist <math> I = \frac{R + G +B}{3} </math><br />
* Wählt man die Intensität konstant mit <math>I=\frac{1}{3}</math> so ergibt sich eine Ebene die den RGB-Farb Würfel Diagonal schneidet und durch die R,G,B Eckpunkte geht<br />
* Jede Farbkoordinate kann auf diese Ebene projeziert werden -> Ermöglicht die Nutzung dieser Ebene als einfache Farbtafel<br />
** Diese Ebene kann dann noch auf die 0RG- Fläche des RGB Würfels projeziert werden ohne das die Ordnung der Farben gestört werden würde -> Der Farbton einer Farbe lässt sich allein durch r und g beschreiben<br />
* in die rg-Ebene können nun alle in RGB - darstellbaren Farben und alles existierenden Farben eingetragen werden<br />
** Danach erkennt man das sich technisch mit dem RGB-System nur ein kleiner Teil der exisiterenden Farben realisieren lässt<br />
<br />
= Das Normvalenz- oder XYZ-System (GF a 76 - 86) =<br />
* Alle Farbwerte sollen durch positive Farbwerte darstellbar sein<br />
** Für Farbmessung von Interesse<br />
** Das XYZ- Dreieck muss den spektralen Kurvenzug voll umschließen<br />
* Eine weitere Forderung ist das die Leuchtdichte als unabhängige Komponete auftreten soll<br />
* Die Fläche des Dreiecks soll so klein wie möglich sein<br />
* Die dadurch berechnbaren Normalvalenzen sind physikalisch nicht erzeugbar -> Die Spektralwertkurven für das System müssen berechnet werden<br />
** Die Berechneten Spektralwertkurven sind stets nichtnegativ -> immer positive Transmissionsgrade und Sensorempfindlichkeiten<br />
[[Bild:NORMXYZ1.JPG]]<br />
* Mit dem XYZ-System kann man nun Farbdreiecke vergleichen und Bewerten<br />
** Abstände, Fehler und Systemeigenschaften sollten aber in einem empfindungsmäßig gleichabständigen Farbraum bewertet werden (u'v'w' und CIELab)<br />
* '''Optimalfarbkörper'''<br />
** Beschreibt die Grenze aller darstellbaren Körperfarben<br />
** Zur Erstellung schneidet man rechteckförmige Stückchen aus dem Spektrum von Idealweißem Licht aus<br />
<br />
== Das UVW-System ==<br />
* Informationsgehalt der Farbe für den Menschen hängt davon ab welche Farbunterschiede er wahrnehmen kann<br />
* Vor allem ist das interessant wenn Bildverarbeitungsprobleme auf der menschlichen Wahrnehmung formuliert sind<br />
* xy-Farbtafel hat starke Unterschiede zwischen örtlichen Abstenden und empfindungsmäßigen Abständen -> ungeeignet<br />
* erste Lösung<br />
** lineare Transformation<br />
** W' -> Helligkeit<br />
** U' -> Rot-Grün Bundheit<br />
** V' -> Gelb-Blau Bundheit<br />
** Ergebnis<br />
*** Wesentlich besseres Darstellung der Empfindung (Faktor 10 gegenüber dem XYZ-System)<br />
* verbesserte Lösung<br />
** verwenden einer nicht linearen Abbildung (Auge wird mit berücksichtigt)<br />
<br />
== L*a*b* oder CIELAB-Raum ==<br />
* Gegenfarbmodell<br />
* empfindungsmäßig gleichabständiger Raum<br />
* Grundsätzlich zur Angabe von Farbabweichungen verwendet<br />
** Geeignet zur Bewertung von Druckern, Monitoren und Abweichungen von Nachfärbungen<br />
* als Farbdifferenzmaß wird der euklidische Abstand benutzt (<1 nicht mehr Wahrnehmbar)<br />
<br />
== L*u*v* oder CIELUV ==<br />
* für additive Mischung vorgesehen<br />
* wie der CIELAB- Raum ein empfindungsmäßiger gleichabständiger Raum<br />
<br />
== YCbCr - Crominanzwertsystem ==<br />
* Entwickelt damit Farbfernsehen und S/W-Fernsehen Parallel betrieben werden konnten<br />
* Crominanzwerte<br />
** sind von Leuchtdichte befreite Werte<br />
** verschwinden für alle unbunten Farben<br />
** Cr= R-Y, Cg = G-Y, Cb = B-Y<br />
** Das System aus CrCbCg und Y ist überbestimmt => Es reicht die Übetragung von Cr , Cb und Y<br />
* Da das Auge auf Helligkeitsunterschiede empfindlicher reagiert als auf Farbunterschiede können die Crominanzwerte mit geringerer Auflösung übertragen werden<br />
<br />
== ΘSY - System ==<br />
* Der Bunttonwinkel Θ berechnet sich aus dem Verhältnis der Crominanzwerte Cb und Cr<br />
* Die Sättigung S ist der Betrag des Vektors CrCb<br />
<br />
== HSI - Farbraum ==<br />
* Intensität: <math> I= \frac{R+G+B}{3} </math><br />
* Sättigung: <math> S = 1 - 3 \cdot min (r,g,b) </math><br />
* Hue: <math> H= \left\{ \begin{matrix}\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B\le G \\ 2\pi -\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B>G \end{matrix}\right . </math><br />
* Raum ist nicht gleichmäßig gefüllt<br />
* bei kleinen Intensitäten I in Buntton und Sättigung Instabil<br />
* Es kann bei Farbmanipulationen dazu führen das es keine Entsprechungen im RGB gibt<br />
** Lösungen:<br />
*** Dachförmige Begrenzung des HSI Raums -> sehr Aufwendig<br />
*** Normieren der Intensitäten -> Bild kann ins dunkle verschoben werden<br />
*** Maximalwert setzen -> Falsche Farbwerte (werden ins unbunte verschoben)<br />
*** proportionales skalieren bis Farbe im RGB-Würfel liegt<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
<br />
== HSL - Farbraum ==<br />
* Gern für Computergrafik verwendet<br />
* einfache Beziehungen<br />
* Die Verwendeten Biegriffe H,S,L entsprechen nicht der Bedeutung in der Farblehre und Form des Raumes<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
* Buntton ist extrem instabil bei kleinen Sättigungen<br />
* Form des Raumes ist unpraktisch<br />
<br />
= Farbmessung (GF 1 - 11) =<br />
<br />
* Farbmessung = Ermittlung der drei zu einer Farbvalenz gehörigen Farbmaßzahlen<br />
* 3 Messmethoden: <br />
** Vergleichsmethode oder Gleichheitsverfahren<br />
** Spektralverfahren<br />
** Dreibereichsverfahren<br />
<br />
== Gleichheitsverfahren ==<br />
<br />
* Vergleiche:<br />
** Vorlage mit additivem Gemisch<br />
** Vorlage mit Farbmusterkarten (DIN-Karten)<br />
* unverzichtbar bei physiologischen Untersuchungen<br />
* aufwendig und bei kleinen Probandengruppen ungenau<br />
* d.h. für technische Messungen ohne Bedeutung<br />
<br />
'''Messbedingungen nach DIN:'''<br />
* helladaptiertes und blendfreies Sehen<br />
* unbunter Messraum<br />
* neutrale Gesichtsfeldumgebung mit gleicher oder etwas kleinerer Leuchtdichte als im Messfeld<br />
* gut ausgeruhtes und neutral gestimmtes Auge<br />
* farbnormalsichtiger Beobachter<br />
<br />
== Spektralverfahren ==<br />
<br />
* zu messende Farbvalenz = Summe spektraler Farbvalenzen<br />
* greift auf gemessene Normspektralwertkurven zurück<br />
<br />
# '''spektrale Messung zur Ermittlung der Farbreizfunktion <math>\varphi (\lambda) </math>'''<br />
#* Selbststrahler: direkte Messung der Strahlungsfunktion <math>\rightarrow \varphi (\lambda)= S (\lambda)</math><br />
#* remittierende Vorlage: Remissionsfunktion der Vorlage messen, d.h. Strahlungsfunktion S ist vorher zu bestimmen und aus <math>\varphi (\lambda)</math> heraus zu rechnen <math>\rightarrow \varphi (\lambda)= \beta (\lambda) \cdot S (\lambda)</math><br />
# '''farbvalenzmetrische Auswertung'''<br />
#* wenn <math>\beta (\lambda)</math> ermittelt wurde, kann jede beliebige (tabellierte) Lichtquelle <math>S^{\ast} (\lambda)</math>eingesetzt werden<br />
#: <math><br />
\begin{bmatrix}<br />
X\\Y\\Z<br />
\end{bmatrix}<br />
= k \cdot<br />
\begin{bmatrix}<br />
\int \bar{x} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{y} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{z} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda<br />
\end{bmatrix}<br />
</math><br />
#* Normierungskonstante k:<br />
#** Selbststrahler: nur Farbwertanteile gefragt, d.h. k ist beliebig<br />
#** Körperfarben: Y für mattweißen Körper = 100, d.h. <math>k=\frac{100}{\int {S(\lambda) \cdot \bar{y}(\lambda) d \lambda}}</math><br />
<br />
'''Messgeometrien:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bildergalerie (45°,8°,Transmission) </span><br />
<br />
* ''45°-Geometrie'': Beleuchtung unter 45° schließt Glanzeinfluss aus <math>\rightarrow</math> Sensor blickt senkrecht auf Probe<br />
* ''8°-Geometrie'': Beleuchtung diffus über Ulbricht-Kugel <math>\rightarrow</math> Sensor blickt unter 8° auf Probe; Messung mit/ohne Glanz möglich<br />
* ''Transmissionsgeometrie'': Probe wird durchleuchtet<br />
<br />
== Dreibereichsverfahren ==<br />
* die drei Farbwerte werden direkt photometrisch gemessen<br />
* Filter und spektrale Empfindlichkeite der Strahlungsempfänger müssen an die spektrale Bewertungsfunktion angepasst sein<br />
* '''Luther-Bedingung:''' <math> \tau_x(\lambda) = \frac{c_x \cdot x(\lambda)}{s_1(\lambda)}</math><br />
** <math> \tau_x(\lambda) </math> ... Filtertransmission<br />
** <math>s_1(\lambda)</math> ... Sensorempfindlichkeit (hier im ersten Kanal)<br />
** <math>c_x</math> ... Gerätekonstante<br />
** Für den Y und Z Kanal ist die Formel analog<br />
* Der notwendige Filter kann gut durch ein Set von Schmalbandigen Filtern realisiert werden<br />
<br />
== Spektralmaskenverfahren ==<br />
<br />
* spezielles Dreibereichsverfahren<br />
* Lichtzerlegung erfolgt mit einem Prisma<br />
* Das zerlegte Lich beleuchtet eine Maske (Papier, Plaste, Metal .... ne richtige echte Maske)<br />
* Messen der spektralen Verteilung (CCD-Zeile)<br />
* Ähnlich dem Spektralverfahren nur das das spektrum bereits im analogen entsprechend gewichtet wird<br />
<br />
== Metamerie ==<br />
* zwei Farbproben die bei einer bestimmten Beleuchtung gleich aussehen können bei einer anderen Beleuchtung ganz anderst aussehen<br />
* Der Metermarie-Index beschreibt diesen durch Beleuchtungswechsel entstehenden Farbwechsel<br />
* KEIN Maß für die Farbkonstantheit sondern für den Unterschied von zwei Proben<br />
* Berechnung erfolgt im L*a*b* Raum <br> <math> M_T = \sqrt {(L_{1T}-L_{2T}+L_{2B}-L_{1B})^2 +(a_{1T}-a_{2T}+a_{2B}-a_{1B})^2+(b_{1T}-b_{2T}+b_{2B}-b_{1B})^2 } </math><br />
** T ... Testlicht<br />
** B ... Bezugslicht<br />
** 1,2 ... Probennummern<br />
<br />
= Klassifikation von Messaufgaben (GF 82 - 86) =<br />
<br />
# Messung von objektiven Eigenschaften, die sich in der Veränderung spektraler Charakteristika niederschlagen<br />
#* vordergründig ist Zusammenhang zwischen Veränderungen in den physikalischen Eigenschaften von Interesse (z.B. Waferinspektion)<br />
#* Zusammenhang sollte eindeutig und von hinreichender Empfindlichkeit sein<br />
#* Wahrnehmung unterschiedlicher Farben eher Nebeneffekt<br />
# Überwachung der Stabilität von farblichen Erscheinungen<br />
#* ist bei einer oder mehreren Beleuchtungen zu überwachen<br />
#* absolute Farbmessung nicht nötig; "Anlernen" auf Farben genügt<br />
#* Abstände im Farbempfinden müssen sich in gleicher Weise in Veränderungen der Sensorsignale wiederspiegeln<br />
# absolute Farbmessung<br />
#* d.h. Ermittlung der korrekten Farbvalenz unter beliebigen Messbedingungen<br />
#* Spektralwertkurven müssen realisiert werden<br />
# Messung des spektralen Remissions- und/oder Transmissionsverhaltens von Materialien<br />
#* ausschließlich spektrale Messverfahren<br />
#* Messung der Strahlungsfunktion und der remittierten Leistungsdichte<br />
#* Berechnung der Farbvalenz bei beliebiger Beleuchtung und des Metamerie-Index<br />
<br />
'''steigende Ansprüche mit steigender Nummerierung'''<br />
<br />
= Einfache Farbkalibrierung (GF 16 - 41) =<br />
* Farben sollen möglichst exakt Wiedergegeben werden<br />
<br />
== Ausgleich von Beleuchtungseinflüssen ==<br />
* Körperfarben werden durch ihre Remmision bestimmt <math> \beta </math><br />
* Bei unterschiedlicher Beleuchtung sehen Farben unterschiedlich aus aber das Auge kann sich an die Beleuchtung adaptieren<br />
** Funktioniert bei Fotos aber nicht -> Beleuchtungsausgleich ist wichtig<br />
** Bei Farbvergleich noch viel mehr<br />
** Wird realisiert durch Weißabgleich (auf integraler Farbebene nicht möglich )<br />
* Direkte Vermessung der spektralen Eingenschaften der Kamera nicht möglich (Da Werte in Kamera bereits verrechnet werden um z.B. die negativen Anteile der Spektralkurven zu realisieren)<br />
** sehr Aufwendig (Kamera auseinanderbasteln um an die echten werte zu kommen + das durchgehen durch das Spektrum in kleinen Schritten)<br />
* Daher Verwendung von Testfarben<br />
** Führt auf Lösung eines linearen Gleichungssystem<br />
** Für menschliches empfinden -> Optimieren im CIELAB-Raum<br />
* Vorsicht bei nichtlinearen Funktionen zur Farbkalibrierung -> Kann bei zu wenig Testfarben zu total falschen Ergebnissen führen !!<br />
<br />
= Color Management (F CM 1 - 20) =<br />
* verschiedene Geräte können verschiedenen Farben darstellen<br />
* verschiedene Geräte verwenden andere Grundfarben zum mischen<br />
* Mit Hilfe von Profilen (Tabellierung der Farbwerteumrechnungen) wird eine Konvertierung der Farben vom Geräteraum in den CIELab Raum bzw umgekehrt durchgeführt<br />
* in den Profilen wird auch vermerkt welche Farben darstellbar sind und welche nicht<br />
* Somit kann man eine "Druckvorschau" auch auf einem Monitor erreichen (natürlich nur für Farben die auf beiden Geräten dargestellt werden können)<br />
** Jedes Mapping der Farben (Gamut-Mapping stellt somit einen Kompromiss dar)<br />
**# Perceptual (Die Farbbeziehungen untereinander werden erhalten) Komprimierung des Gamuts bis er in den zur Darstellung verwendeten passt<br />
**# Colometrisch -> Exakte Reproduktion aller in beiden Gamuts darstellbaren Farben<br />
**## relativ -> weiß wird auf weiß abgebildet und alle anderen Farben relativ dazu<br />
**## absoult farbmetrisch<br />
**# Saturation, alle Farben außerhalb des Zielgamuts werden zugunsten der Sättiung verändert<br />
* Kalibrierung -> Versetzen des Gerätes in einen definierten, reproduzierbaren Zustand<br />
* Charakterisierung -> Modellierung eines Gerätes welches sich ein einem stabilen definierten Zustand befindet<br />
<br />
= Kameras (GF_Ka 1 - 12) =<br />
<br />
'''Einsatzfelder:'''<br />
* ortsaufgelöste Messung von Farbe<br />
* Aufnahme und Wiedergabe von True-Color Bildern<br />
* Aufnahme farbiger oder mehrkanaliger Bilder für die Verarbeitung/Analyse (Qualitätssicherung)<br />
* Photogrammetrische Anwendungen (Lösung des Korrespondenzproblems)<br />
* Radiometrische Anwendungen (Messen im Spektralbereich)<br />
<br />
'''Dreibereichsmessung:'''<br />
* setzt die Trennung von drei sich überlappenden Spektralbereichen voraus, die dann wellenlängenabhängig zu bewerten und zu integrieren sind<br />
<br />
== Dreichip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* optische Kanaltrennung und Bewertung<br />
* beste Bildqualität, da hohe Auflösung in allen drei Kanälen<br />
* keinen örtlichen Versatz der Pixel in den drei Farbauszügen<br />
* Filter einfacher und präziser zu realisieren<br />
* befinden sich z.B. als dichroitische Spiegel auf den Strahteilerprismen<br />
<br />
<span style="color:#ee0000;"> \\ Hot-Mirror-, Cold-Mirror-Korrektur????</span><br />
<br />
== Einchip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: doppelte Anzahl grüner Pixel wegen Schärfe, MTF des Auges </span><br />
<br />
* örtliche Kanaltrennung und Bewertung<br />
* Streifen- oder Mosaikfilterstrukturen auf den einzelnen Pixeln zur örtlichen Signaltrennung<br />
* 3 oder 4 unterschiedliche spektrale Auszuüge zur Erzeugung der Farbinformation<br />
* Matrix selbst kann Interline- oder Frame-Transfer-Matrix sein<br />
* kostengünstiger und kleiner als Dreichip-Kameras<br />
* Probleme:<br />
** Farbvalenzen aus örtlich versetzten Auszügen (z.B. Farbsäume an Kanten)<br />
** nicht korrigierbare Fehler aus Nichtlinearitäten und Dunkelsignalen bei der Bildung von Mischsignalen<br />
<br />
'''generelle Anforderungen an die Signalverarbeitung:'''<br />
<br />
* primäre Kamerasignale stellen keine farbmetrische Schnittstelle zur Verfügung, d.h. alle Bewertungsfunktionen sind nicht-negativ (Spektralwertkurven fordern aber negative Wichtungen)<br />
* je nach realisierten Filtern und Genauigkeitsansprüchen <math>\rightarrow</math> lineare Matrizierung (meist Kameraintern) oder komplexere Approximation<br />
* bei hohen Genauigkeitsansprüchen <math>\rightarrow</math> Umgehung der Kamerainternen Matrizierung, weil Verstärkungsfaktoren, Toleranzen, Temperaturdrift, Langzeitstabilität etc. nicht bekannt sind<br />
* insgesamt geringe Nichtlinearitäten der CCD's können in den Ansteuerbereichen der einzelnen Kanäle zu wesentlichen Fehlern führen:<br />
** Farbvalenz ändert sich kontinuirlich mit der Shutterzeit<br />
** Pixelweise DSNU- (Dunkelsignalungleichförmigkeit) und PRNU- (Hellsignalungleichförmigkeit) Korrektur vor Erzeugung der Farbvalenz erforderlich, da sich Festmusterrauschen nicht nur auf Intensität sondern auch auf Farbart auswirkt<br />
** Dunkelsignal verdoppelt sich alle 7K, Gleichanteil wird aber geklemmt<br />
** Lichtquellentyp und Langzeitverhalten wirken sich nicht nur Intensität sondern auch auf Farbtemperatur aus<br />
<br />
'''4 spektrale Bereiche:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* vorteilhaft zur Erzeugung von Farbdifferenzsignalen für die TV-Kompatibilität<br />
* im Field-Integration-Mode werden Mischsignale gebildet, die die erforderliche Signalkorrektur für hohe Ansprüche behindern<br />
* Nichtlinearität der Ausgangsverstärker wirkt sich auf Korrektur der primären Mischsignale aus<br />
<br />
== Sequentielle Einchip-Kamera ==<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* zeitliche Kanaltrennung und Bewertung<br />
* relativ genaue Approximation der Spektralwertkurven möglich<br />
<br />
== Elektrisch steuerbare Filter ==<br />
<br />
* über die Wellenlängenabhängigkeit der Eindringtiefe der Photonen und die Steuerbarkeit der Tiefe der Potentialmulden der sensoren lassen sich steuerbare spektrale Empfindlichkeiten erzeugen<br />
<br />
= Verarbeitung von Farbbildern (1 - 31) =<br />
* Das unabhängige verarbeiten der Farbkanäle eines Farbbildes führt zu Nebeneffekten wie Farbsäume<br />
* Die höhere Vielfalt des mehrdimensionalen Raumes von Farbbildern kann Vorteilhaft genutzt werden für Pixelklassifikation, Segmentierung <br />
* Abstände, Mittlere Werte und örtliche Veränderungen sind in empfindungsmäßig gleichabständigen Räumen zu definieren und zu bewerden<br />
<br />
== Histogramme und Statistiken für Farbbilder ==<br />
* Farbbilder liefern dreidimensionale Häufigkeitsverteilungen im Farbraum → können als Approximation der entsprechenden 3D-Dichten verwendet werden<br />
* statistische Zusammenhänge zwischen den Kanälen werden in mehrdimensionalen Dichten betrachtet<br />
** Für Handauswertung meist nur 2D-Dichten, wegen der Übersicht<br />
** Für maschinelle Auswertung können diese dichten auch dreidimensional werden<br />
** für die parametrische Darstellung der Cluster werden meist multivariante Gaußverteilungen eingesetzt<br />
*** Einr Gaußverteilung ist für die Beschreibung eines Bildes mit mehreren Objekten nicht geeignet<br />
*** Die Kovarianzmatrix einer solchen "Approximation" kann aber gut zur Einschätzung der Streuung und der Mittelwerte in dem Bild eingesetzt werden<br />
<br />
=== Histogramm - Modifikationen ===<br />
* Contrast Streching, Polygonal Image Scaling, Histogram-Equalisation Siehe [[Grundlagen der Bildverarbeitung und Mustererkennung#homogene Punktoperationen|Grundlagen der Bildverarbeitung]]<br />
* Manipulation kann in verschiedenen Farbräumen ausgeführt werden (RGB,HSI,...)<br />
** In nicht empfindungsmäßig gleichabständigen Räumen muss die Transformation nicht unbedingt zum Ziel führen<br />
==== Manipulation im Farbraum RGB ====<br />
* ist der Farbraum in dem die Daten häufig vorliegen<br />
* Wirkung kann auf Grund der starken korrelation der RGB Werte bei geringen Sättigungen ausbleiben<br />
* Farbverfälschung wenn einzelne Kompontenen unabhänig von einander behandelt werden<br />
* hohes apriori-Wissen notwendig<br />
* wenn Falschfarbdarstellung gewünscht ist kann dies das mittel der Wahl sein<br />
<br />
==== Manipulationen im Farbraum HSI ====<br />
* unproblematisch in Bezug auf Farbverfälschungen<br />
* Zielsetzungen können sich einfacher beschreiben lassen (ähnelt der Beschreibung von Farbe durch den Menschen)<br />
* unabhängige Komponente (Intensität)<br />
* Kontrastverbesserung durch Sättigungsausgleich ohne Farbveränderung möglich<br />
* Stabilitätsprobleme nahe den unbunten Farben<br />
# '''Ausgleich des Intensitätshistogramms'''<br />
#* Werte möglich die keine entsprechung mehr im RGB haben → müssen geeignet herruntergerechnet werden<br />
#* bei kleinen Intensitäten sind die Bunttöne instabil → ausschließen von Veränderungen<br />
# '''Sättigungsausgleich'''<br />
#* Modifikation der Sättigung unter Beibehaltung des Bunttones<br />
#* Bei kleinen Sättigungen und kleinen Intensitäten ist der Buntton instabil → Ausschließen<br />
#* Histogramm über alle Bunttöne ist häufig verschmiert → besser Histogramm über Buntton Segmente<br />
# '''Bunttonausgleich'''<br />
#* Ziel sind Farbfalschbilder um Objekte besser unterscheiden zu können<br />
#* bei zu großen Buntton Änderungen wird die Interpretierbarkeit nur bei homogenen Flächen verbessert, meist wird sie eher verschlechtert<br />
#* Unsicherheit des Bunttons → bei geringen Sättigungen und Intensitäten ist der Buntton auszuschließen<br />
<br />
== segmentgesteuerte Farbvalenztransformationen ==<br />
* Globale Statistiken werden häufig durch nicht interressante Objekte dominiert<br />
* Ausweg ist das Betrachten von Ausschnitten und anwenden der Transformationen auf die Ausschnitte<br />
* erfordert zu erst das Segmentieren des Bildes<br />
<br />
= Referenzfreie Farbadaption auf Basis des 3D-Histogramms (HuS 32 - 39 ) =<br />
* unter bestimmten umständen kann auf eine Kalibrierung der Kamera mittels Referenzfarben verzichtet werden<br />
* Zur Korrektur soll die parametrische Approximation der 3D-Histogramme durch multivariante Gaußverteilungen genutzt werden<br />
== Vorraussetzungen für die Anwendbarkeit ==<br />
* Strukturierte Szene mit mehreren ntürlichen Objekten, die gleichmäßig über den Bunttonwinkel verteilt sind und durchschnittlichen Sättigungsgrad aufweisen<br />
* Langgestreckter SW-Prozess im Vergleich zum Rot-Grün und Blau-Gelb Prozess<br />
<br />
== Vorgehensweise ==<br />
* Korregieren von "vermutlichen" Abweichungen des Bildes in der Unbuntheitsachse<br />
* Dazu Ermitteln der Hauptachsen mit PCA<br />
* Drehen der Hauptachse in den SW-Prozess<br />
* Rücktransformation und Darstellung<br />
<br />
= Histogrammbasiertes Farbmatching(1 - 15) =<br />
* Histogramme sind im 2D Bild invariant gegenüber Rotation, Translation und Maßstab (wenn die Angaben relativ erfolgen !)<br />
* Histogramme sind auch relativ stabil gegenüber moderaten Verdeckungen und 3D-Rotation<br />
* Grobe Quantisierung der Histogramme um Fehlertoleranz zu erhöhen<br />
* Damit können Histogramme zur Objekterkennung eingesetzt werden → Bezeichnet als Color Indexing<br />
<br />
== uniformes Binning ==<br />
* einteilen der Farben in ein gleichverteiltes Histogramm<br />
* Suche in einem Bild den Ausschnitt welcher eine minimale Distanz zum Referenzbild hat<br />
* Als Abstandsmaß verwendet werden die Histogramme genutzt<br />
** Summe der Quadratischen Differenzen (Histogramme als Vektoren betrachtet und dann den euklidischen Abstand berechnet ohne Wurzel)<br />
** Earth Movers Distance (Berechnen was sich wohinverteilt haben könnte ... erfordert die Lösung des Transportproblems)<br />
* einfach aber die Bins ändern sich Sprunghaft, vor allem dann wenn Farben knapp an den willkürlichen Bingrenzen liegen<br />
<br />
== Unscharfe Chroma-Orts-Histogramme ==<br />
* Nachteile des uniformen Binning sollen überwunden werden<br />
* Alle Pixel bekommen eine unscharfe Klassenzugehörigkeit (Binnzugehörigkeit) je nach Abstand zum entsprechenden Binnmittelpunkt (wie bei [[Softcomputing|Fuzzy-C-Means]])<br />
** Ein Parameter ermöglicht dabei die Verunschärfung einzustellen (von total unscharf bis zum festen Binning)<br />
* Auch der absolute Ort der Segmente (aus denen die Histogramme erstellt werden) soll mit verwendet werden<br />
** Dazu wird das Bild in entsprechende Bereiche geteilt (8x8,16x16,...)<br />
** Alle Blöcke werden durchnnummeriert<br />
** Auch hier kommt es zu harten Umbrüchen wenn Pixel knapp an den Grenzen liegen → auch hier verunschärfen<br />
** Welche Indizees haben die Nachbarn? (Nachbarschaft in den Indizees der Blöcke heißt nicht gleich 2D-Nachbarschaft)<br />
<br />
== Cluster mittels Graphenansatz ==<br />
* Ziel ist es:<br />
** Sprunghafte Änderung der Binns zu verhindern<br />
** wenige Merkmale zu verwenden<br />
** Eng beieinander liegende Maxima trotzdem unterscheiden zu können<br />
* Verwendete Bilddaten:<br />
** Farbwinkelhistogramm, wenn Sättigung der Farben ausreichend ist<br />
** Intensitätsdiagramm, wenn Sättigung der Farben zu gering wird<br />
* Vorgehen:<br />
** Jeder Wert im Histogramm zeigt auf den Größten in seiner Nachbarschaft<br />
** Das Maximum zeigt auf sich selbst → Wird Merkmal<br />
** Weiteres Merkmal ist die Fläche die zum Maximum gehört (Nachbarn die direkt bzw. indirekt auf das entsprechende Maximum zeigen)<br />
* Match:<br />
** Finde ein Tupelpaar (Maxima in Referenzhistogram und Suchhistogram mit dem geringsten Abstand)<br />
** Ziehe gemeinsame Fläche von jedem Tupel des Paares ab<br />
** summiere gemeinsame Fläche (?)<br />
** Wiederhole bis sich keine Tupelpaare mehr bilden lassen<br />
** beziehe die laufende Summe auf das Maximum der Summe der ursprünglichen Flächen<br />
<br />
= Störunterdrückung (SU 1 - 16) =<br />
* Für nachfolgende Verarbeitungsschritte ist die Störunterdrückung sehr wichtig<br />
* Verschiedene verfahren der Rauschunterdrückung sind in [[Grundlagen der Bildverarbeitung und Mustererkennung#Lokale Operatoren zur Bildverbesserung (LOa 1 - 44) |BV]] eingeführt worden<br />
<br />
== Störunterdrückung durch Faltungsfilter ==<br />
* Anwendung wird einfach vektoriell durchgeführt (als würde man drei unabhängige Bilder gleichzeitig Filtern wollen)<br />
* es entstehen neue Farbtöne an den Übergängen zwischen Farben<br />
* im HSI Farbraum ist eine getrennte Betrachtung der Farbe und der Sättigung/Intensität möglich<br />
* Buntton ist zyklisch → muss bei der Mittelung beachtet werden<br />
* in der Farbe kann stärker gemittelt werden als in der Helligkeit (Auge nimmt Farbveränderungen schlechter wahr)<br />
* Komplexe Zahlen bieten sich hier als Rechenmittel an<br />
<br />
== adaptive gewichtete Mittelung ==<br />
* detailerhaltende Fähigkeiten von Filtern wegen der Farbsäume besonders von Interesse<br />
* Abstände verkomplizieren sich im Vergleich zu Grauwertbildern (Vektorabstandsmaße, Winkeldifferenzen,...) <br />
* Vorgehen nach dem Berechnen des Abstandes dann wieder Analog zur Grauwertfilterung<br />
<br />
== Medianfilterung ==<br />
* Problem bei der Übertragung des Rangordnungsgedankens auf Vektoren<br />
** Komponentenweises Vorgehen ist nicht geeignet (absolute Farbverfälschungen möglich)<br />
** Suche des besten Vertreters des SETS (wenn der verwendete Media im SET ist werden keine zu falschen Farben gewählt/gesetzt)<br />
*** kleinste Abstandssumme zu allen anderen Pixeln<br />
<br />
== Kombination von Averaging und Medianfilterung ==<br />
* Medianfilter ist gut für Impulsrauschen, schlecht bei Gauß hier ist Average gut<br />
* Bei den Filtern gibt es keinen unterschied zu den Grauwertbildern (unterschied besteht nur in der Realisierung der verwendeten Media/Average Filter nicht in ihrere Kombination)<br />
<br />
== Vektor-Richtungs-Filter ==<br />
* '''Basic Vecotr Directional Filter'''<br />
** Winkel zwischen Farbvalenzen als Distanzmaß<br />
** Ergebnis ist die Farbvalenz mit der kleinsten Winkeldifferenzsumme zu allen Valenzen des Fensters<br />
** Achromatische Rauschkomponenten werden nicht beseitigt<br />
* '''Generalized Vector Directional Filter '''<br />
** Suche nach den besten Vektoren aus Sicht der Richtung<br />
** Medianfilterung der Beträge der Vektoren<br />
* '''Directional Distance Filter'''<br />
** Vermeiden der Ineffizenz des GVDF Filters durch ein gemischtes Distanzmaß (Betrag und Winkel gleichzeitig)<br />
<br />
= Kantendetektion in Farbbildern (1 - 21) =<br />
* Wichtig für Segmentierung, Bildanalyse und Bildverstehen<br />
* [[Grundlagen der Bildverarbeitung und Mustererkennung#Kantendetektion (LK 1 - 38)| Kantenfilter]] bereits aus BV bekannt<br />
# '''Vektrogradient'''<br />
#* Berechnen der Jacobi-Matrix<br />
#* Wurzel aus dem größten Eigenwert ist der Vektorgradient<br />
#* Extrem Rechenaufwendig<br />
# '''Mittelwert der Richtungsableitungen'''<br />
#* Entspricht dem Gradienten im Intensitätsbild<br />
#* Zwei engegengesetzte Gradienten in unterschiedlichen Farben können sich gegenseitig aufheben → der Gradient der dritten Farbe dominiert egal wie klein er ist<br />
# '''Maximaler Gradient'''<br />
#* Suche nach dem Gradienten mit dem größten Betrag<br />
#* Korrelation der einzelnen Gradienten ist nicht von Bedeutung<br />
<br />
= Farbpixelklassifikation (Farbpixelklassifikation 1 - 21) =<br />
* Die Farbvalenzen bilden die Merkmale der Pixel<br />
* Anzustrebende Eigenschaften<br />
** Gute Beschreibung der Klassencluster und gute Trenneigenschaften<br />
** Einfache Belehrbarkeit (Aus Beispielen oder Expertenwissen)<br />
** Echtzeitfähigkeit<br />
** möglichst frühe Stufe der Verarbeitungskette ("Anspruchslosigkeit an das Bild")<br />
** Nutzen von Klassenzugehörigkeitsmaßen<br />
<br />
== optimaler Klassifikator ==<br />
== Maximum-Likliehood-Klassifikator ==<br />
== Malanobis-Abstandsklassifiaktor ==<br />
<br />
= Clusterverfahren (Farbpixelklassifikation 19 - 45) =<br />
<br />
= Segmentierung (Seg 1 - 8) =<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Grundlagen_der_Bildverarbeitung_und_Mustererkennung&diff=6986Grundlagen der Bildverarbeitung und Mustererkennung2009-03-16T10:40:46Z<p>DarkGhost: /* Klassifikation (Klassifikation 1 - 20) */</p>
<hr />
<div>= Folien aus der Vorlesung =<br />
<hiddenlogin linktext="Passwort für die Folien">gdlmu</hiddenlogin><br />
<br />
[[:Bild:GdlmVL1.pdf|Vorlesung 1]]<br />
[[:Bild:GdlmVL2.pdf|Vorlesung 2]]<br />
[[:Bild:GdlmVL3.pdf|Vorlesung 3]]<br />
[[:Bild:GdlmVL4.pdf|Vorlesung 4]]<br />
[[:Bild:GdlmVL5 pw.pdf|Vorlesung 5]]<br />
[[:Bild:GdlmVL6 pw.pdf| Vorlesung 6]]<br />
[[:Bild:GdlmVL7.pdf| Vorlesung 7]]<br />
[[:Bild:GdlmVL8.pdf| Vorlesung 8]]<br />
[[:Bild:GdlmVL9.pdf| Vorlesung 9]]<br />
[[:Bild:GdlmVL10.pdf| Vorlesung 10]]<br />
[[:Bild:GdlmVL11.pdf| Vorlesung 11]]<br />
[[:Bild:GdlmVL12.pdf| Vorlesung 12]]<br />
[[:Bild:GdlmVL13.pdf| Vorlesung 13]]<br />
[[:Bild:GrdlmVL14 a.pdf| Vorlesung 14 Teil 1]]<br />
[[:Bild:GrdlmVL14 b.pdf| Vorlesung 14 Teil 2]]<br />
[[:Bild:GdlmVL15.pdf| Vorlesung 15]]<br />
<br />
= Einführung und Vorbemerkungen (WTE 8 - 24) =<br />
<br />
= Primäre Wahrnehmung (PWa 1 - 22) =<br />
<br />
* digitale Bildverarbeitung setzt Umsetzung von 2D-Strahlungsverteilungen in elektrische Signale voraus<br />
* bei der Primärwahrnehmung erfolgt bereits beträchtliche Reduzierung der Information<br />
** Beschränkung der örtlichen Auflösung <math>\rightarrow</math> Feinstrukturen nicht mehr sichtbar (PSF,MTF)<br />
** Diskretisierung des Definitionsbereichs <math>\rightarrow</math> Rasterung, Abtastung, Aliasing<br />
** Diskretisierung des Wertevorrats <math>\rightarrow</math> AD-Wandlung, Triggerung, Quantisierung<br />
** Beschränkung des Spektralbereichs<br />
<br />
== Strahlung, Bestrahlung, Licht, Beleuchtung ==<br />
<br />
=== Radiometrische Größen ===<br />
<br />
* radiometrische Größen: absolute Bewertung elektromagnetischer Stahlung (strahlungsphysikalisch)<br />
* photometrische Größen: drücken spezifische Einwirkung der Lichtstrahlung auf das menschliche Auge über ein Vergleichsnormal aus<br />
* Umrechnung von radiometrischen in photometrische Größen erfordert Kenntnis der spektralen Zusammensetzung der Strahlung <br />
* Das Auge nimmt Leuchtdichten als photometrisches Äquivalent der Strahldichte war<br />
* Messtechnisch: wellenlängenabhängige Bewertung durch Filter<br />
<br />
'''Raumwinkel:'''<br />
<br />
* Der Raumwinkel <math>\omega</math> einer Fläche <math>A</math> ist die Zentralprojektion dieser Fläche auf die um den Beobachtungspunkt gelegte Einheitskugel<br />
: <math>d \omega = \frac{dA}{r^2} \cdot \omega_0 = \omega_0 \cdot \sin \gamma \cdot d \gamma \cdot d \delta</math><br />
<br />
* Der Winkel zwischen Geraden und Ebenen ist als Streckenabschnitt auf dem Umfang des Einheitskreises definiert<br />
* Der Raumwinkel wird analog definiert nur das es sich jetzt um einen Flächenauschnitt auf der Einheitskugel handelt<br />
* Der Wertebereich des Raumwinkels liegt zwischen 0 und <math> 4 \pi </math> (gesamte Oberfläche der Einheitskugel)<br />
<br />
'''Strahlungsphysikalische Größen:'''<br />
<br />
* sind vom menschlichen Auge unabhängige physikalische Größen<br />
<br />
{| {{Prettytable}}<br />
! || Zeichen || Beschreibung || Formel || Einheit<br />
|-<br />
| Strahlungsfluss || <math>\Phi_e</math> || im Zeitmittel pro Zeiteinheit durch die Fläche hindurchgehende Energie || || <math>W</math><br />
|-<br />
| Strahlungsmenge || <math>Q_e</math> || || <math>Q_e = \int \Phi_e \cdot dt</math> || <math>Ws</math><br />
|}<br />
<br />
'''Beschreibung von Strahlungsquellen:'''<br />
<br />
{| {{Prettytable}}<br />
! || Zeichen || Beschreibung || Formel || Einheit<br />
|-<br />
| Strahlstärke || <math>I_e</math> || ist der in ein Raumwinkelelement<br />
einfallende Strahlungsanteil<br />
|| <math>I_e = \frac{d \Phi_e}{d \omega}</math> || <math>\frac{W}{sr}</math><br />
|-<br />
| Strahldichte || <math>L_e</math> || Flächenbezug des Strahlungsanteils<br />
der von einem Punkt ausgeht<br />
|| ''Senkrecht zum Flächenelement:''<br />
<math> L_{e0} = \frac{d I_{e0}}{d A_{St}}</math><br />
<br />
''schräge Blickrichtung:''<br />
<br />
<math>L_{e \epsilon} = \frac{d I_{e0}}{d A_{St} \cdot \cos \epsilon} = \frac{d^2 \Phi_{e \epsilon}}{d A_{St} \cdot \cos \epsilon \cdot d \omega}</math> <br />
|| <math>\frac{W}{sr \cdot m^2}</math><br />
|-<br />
| Lambert-Strahler || <math>dI_{\epsilon , Lambert}</math> || ideal diffus strahlende Fläche || <math>dI_{\epsilon , Lambert} = L_{e0} \cdot d A_{St} \cdot \cos \epsilon = d I_{e0} \cdot \cos \epsilon</math> || <math>\frac{W}{sr}</math><br />
|}<br />
<br />
'''Bestrahlte Flächen:'''<br />
<br />
{| {{Prettytable}}<br />
! || Zeichen || Beschreibung || Formel || Einheit<br />
|-<br />
| Bestrahlungsstärke || <math>E_e</math> || '''Radiometrisches'''<br />
'''Entfernungsgesetz'''<br />
|| ''senkrechtes Auftreffen der Strahlung:''<br />
<math>E_{e0} = \frac{d \Phi_e}{dA_E}</math> <br />
<br />
''schräg auftreffende Strahlung:''<br />
<br />
<math>dE = \frac{d I}{r^2} \cdot \cos \alpha \cdot \omega_0 </math><br />
|| <math>\frac{W}{m^2}</math><br />
|-<br />
| '''Radiometrisches Grundgesetz''' || <math>d^2\Phi_e</math> || Konkretisierung des<br />
radiometrischen<br />
<br />
Entfernungsgesetzes<br />
|| <math>d^2\Phi_e = \frac{L_e \cdot \omega_0}{r^2} \cdot \cos \alpha \cdot \cos \epsilon \cdot d A_{St} \cdot dA_E </math> <br />
|| <math>W</math><br />
|}<br />
<br />
=== Photometrische Größen ===<br />
* unter Berücksichtigung der Menschlichenwahrnehmung bewertete Größen<br />
* Die Umrechnung von radiometrischen Größen in photometrische Größen kann nur monocromatisch erfolgen da jede Wellenlänge mit der Wahrnehmungskurve des Auges gewichtet werden muss<br />
* dazu ist die Kenntnis der Leistungsdichte notwendig<br />
** Kann berechnet werden (bei Temperaturstrahlern nach Planckschem Strahlungsgesetz)<br />
** Muss mit einem geeigneten Sensor erfasst werden<br />
<br />
= Bildtransformationen, -repräsentationen - Grundlagen (BR 1 - 27) =<br />
<br />
== Bildrepräsentation ==<br />
* alle Werte eines Signals lassen sich durch Wichtung von orthogonalen Basisvektoren darstellen<br />
** Die für einen Wert notwendigen Gewichte kann man durch Projektion dieses Wertes auf die Basisvektoren ermitteln (inneres Produkt der Vektoren bilden)<br />
* Jedes Bild lässt sich somit aus orthogonalen Basisbildern zusammensetzen<br />
** Die Basisbilder haben die gleichen Abmessungen wie das gewünschte Bild<br />
** Die Fourier Transformation ist lediglich die Umwandlung zwischen zwei verschiedenen Basisbildertypen<br />
*** Basisbilder setzen sich aus Sinus und Cosinus Schwingungen zusammen die beliebig orientiert sein können<br />
*** Eigenschaften: Mittelwert ist Rotations- und Translationsinvariant, Verschiebungssatz, Faltung ←→ Multiplikation, Drehung ←→ Drehung, Abtastung ←→ Periodifizierung<br />
** Cos bzw Sin Transformation<br />
*** Basisbilder setzen sich aus zwei senkrecht aufeinanderstehenden Cos bzw. Sinus Schwingungen zusammen<br />
** Hadamard bzw Haar- Transformation<br />
*** Basisbilder setzen sich aus orthogonalen Binärfunktionen zusammen<br />
*** Bei der Haar-Transformation werden aufgrund der lokalen Basismuster lokale Strukturen besser abgebildet<br />
<br />
== Bildpyramiden ==<br />
* Siehe auch [[Robotvision#Auflösungspyramiden|Auflösungsprymiden in RoboVis]]<br />
* Bilder werden in verschiedenen Auflösungen betrachtet<br />
* Ziele:<br />
** Überwindung der lokalen Sicht der meisten Operatoren<br />
** Anwendung kleiner Operatoren ist wesentlich schneller als große Operatoren<br />
* Abtasttheorem muss beachtet werden → Tiefpassfilterung vor jeder Verkleinerung<br />
* Laplace-Pyramiden können genutzt werden um die Informationsunterschiede zwische den beiden Auflösungen zu speichern um so das Bild aus einer kleineren Auflösung rekonstruieren zu können (Komprimierte Speicherung der Bilder)<br />
** Dafür müssen die Bilder vor der Differenzbildung gleich groß gemacht werden → Interpolation der Fehlenden Pixel notwendig<br />
** Siehe auch Interpolation und Resampling<br />
<br />
= Primäre Wahrnehmung - Grenzen der örtlichen Auflösung(PWb 1 - 18) =<br />
* Begrenzung erfolgt durch<br />
** Beugungserscheinungen an den Blenden<br />
** Abbildungsfehler<br />
** Durch den Sensor (endliche kleine Sensorflächen)<br />
<br />
== PSF - Point Spread Function ==<br />
* Punktantwort des Systems<br />
* OTF (Optische Transferfunktion) ist die Fouriertrasnformierte der PSF<br />
* Der Betrag der OTF ist die MTF (Modulationstransferfunktion)<br />
* Die Aufglösungsgrenze ist erreicht wenn die MTF auf 10% das Maximums abgesunken ist<br />
* Die PSF wird mit dem Bild im Ortsbereich gefaltet → Wichtung der Frequenzen im Frequenzbereich → "Modulation"<br />
* Das Auge hat Bandpasscharakter<br />
** zu langsame Änderungen werden nicht wahrgenommen genausowenig wie zu schnelle Änderungen<br />
** Bei gesättigten Farben ist die Empfindluchkeit des Auges schlechter als z.B. bei Grauwerten<br />
<br />
== Sensorapertur ==<br />
* Bildsignal ist im eine kontinuierliche zweidimensionale Funktion<br />
* Abtastung des Bildes durch den Sensor mit endlichgroßen Aufnahmeflächen<br />
** Faltung des Bildes mit Sensoraptertur<br />
** anschließende Abtastung an den Pixelmitten<br />
* Das führt zur Wichtung der Frequenzen mit einer si-Funktion (sinc beim Franke !!) und anschließender Periodifizierung des Bildfrequenzspektrums<br />
** bei nicht aussreichender Bandbegrenzung führt das zu Aliasing<br />
** Originalbild kann mit Hilfe der si-Interpolation wiedergewonnen werden (Multiplikation mit einem Rechteck im Frequenzbereich)<br />
<br />
= Farbe (GF 1 - 69) =<br />
<br />
= Farbmessung (GF_FM 1 - 18) =<br />
<br />
= Farbräume (F_CM 1 - 20) =<br />
<br />
= Kameras (GF_Ka 1 - 12) =<br />
<br />
= Bildvorverarbeitung (GT 1 - 33) =<br />
* Bilder sind meist stark gestört<br />
* Mögliche Ursachen für Störungen sind:<br />
** Inhomogene Beleuchtung<br />
** Verunreinigungen in der Kamera (Streulicht und ähnliches)<br />
** Nicht perfekte Optik (Randabfall, Verzerrungen)<br />
** Nichlinearitäten des Bildsensors (Vorallem beim CMOS und Röhren)<br />
** Rauschen der Elektronik<br />
** Einkopplungen <br />
* Ziel der Bildvorverarbeitung ist es:<br />
** Normierung des Graustufen und Bildgeometrie<br />
** Korrektur und Unterdrückung der Störungen<br />
** Extraktion von Merkmalen für die Steuerung/ Parametrisierung von Algorithmen<br />
** Erzielen von Invarianzeingenschaften<br />
<br />
== Geometrische Bildtransformation ==<br />
* Ziel ist es das entzerrte Zielbild aus einem verzerrten Quellbild zu erhalten<br />
* Wenn die Verzerrungseigenschaften des Systems bekannt sind kann die Transformation analytisch Beschrieben werden<br />
* Bei unbekannten Verzerrungseingeschaften muss die Transformationsfunktion approximiert werden<br />
** Passiert meist mit polynimialen Ansätzen<br />
** Markieren von Passpunkten für die Approximation<br />
* Vorwärtstransformation<br />
** Das Zielbild wird direkt aus dem Quellbildberechnet in dem jedes Pixel des Quellbildes durchgegangen wird und ins Zielbild übertragen wird<br />
** Problem ist das im Zielbild "Lücken" entstehen können aufgrund von Rundung der transformierten Koordinaten<br />
* Rückwärtstransformation<br />
** Das Zielbild wird aus dem Quellbild berechnet in dem jedes Pixel im Zielbild durchgegangen wird und geschaut wird welcher wert aus dem Quellbild eingetragen werden muss<br />
** Es entstehen keine Lücken mehr im Zielbild<br />
** Die zurücktransformierten Koordinaten müssen nicht genau auf ein Pixel im Quellbild treffen → Interpolation der Pixelwerte notwendig<br />
<br />
== Interpolationsverfahren zum Resampling ==<br />
* gegeben ist ein Bild mit diskreten werten an bestimmten stellen<br />
* Gesucht sind nun Werte an beliebigen stellen → als Wiederabtastung oder auch Resampling bezeichnet<br />
* Dabei soll für die Interpolationsfunktion gelten das sollte genau ein Abtastwert getroffen werden so darf nur dieser den Wert des Zielpixels bestimmen<br />
<br />
=== Ideale Interpolationsfunktion ===<br />
* Wenn das Originalbild hinreichend Bandbegrenzt war läßt sich mit Hilfe von einer Summe si-Funktionen das koninuierliche Originalbild rekonstruieren<br />
* Dazu wird in dem unendlichgroßen Bild auf jedes Pixel eine si-Funktion gesetzt mit dem gewicht des Grauwertes an dieser Stelle<br />
* Multiplikation des Spektrums des Bildes mit einem Rechteck ... Rückgängigmachen der Periodifizierung durch die Abtastung<br />
<br />
=== Nearest Neighbour Resampling ===<br />
* wähle den nächsten Nachbarn als Funktionswert an dieser Stelle<br />
* Führt zu Artefakten da der Funktionswert schlichtweg falsch ist<br />
<br />
=== Bilineare Interpolation ===<br />
* lineare Interpolation des Pixelwertes an der geünschten Stelle aus den vier benachbarten Pixeln (Abstand zu den Stützwerten geht mit in die Interpolation ein !!!)<br />
* Immer noch sehr schnell<br />
* besser als Runden aber immer noch Fehlerbehaftet<br />
* Im Frequenzbereich wird das Spektrum des Bildes mit einer si²- Funktion multipliziert<br />
** Verunschärfung von Kanten <br />
** mögliche Aliasing Probleme durch Nebenmaxima<br />
<br />
=== Kubische Interpolation ===<br />
* Verwenden von 4x4 Pixeln zu Bestimmung des Interpolationspolynoms<br />
* Unstetigkeitstelle nach der ersten Ableitung (Polynom wird für jede 4x4 Region unabhängig berechnet)<br />
<br />
=== Kubische Spline Interpolation ===<br />
* Bilden der gewichteten Summe aller Interpolationskoeffizienten<br />
** imprinzip ist es eine diskrete Faltung<br />
** Damit muss man nicht unbedingt das Gleichungssystem lösen man kann mit Hilfe der Faltungsinversen (so sie denn existiert) die Koeffizienten berechnen<br />
* Geringe breite<br />
* Stetigkeit<br />
<br />
=== Lineare Bildtransformation ===<br />
* nichtlineare Bildtransformationen können durch lineare Approximiert werden wenn diese auf kleine Elemente angewendet wird<br />
* mit Hilfe von homogenen Koordinaten lässt sich die Transformation schreiben als Zielkoordinaten = Transformationsmatrix * Quellkoordinaten<br />
* Durch umstellen kann man mit Hilfe von Passpunkten die Transformationsmatrix einfach berechnen<br />
** Lieber mehr Puntke als nötig nehmen (Fehlerquadratmethode zum verbessern verwenden) und darauf achten das die Punkte nicht alle auf einer Gerade liegen<br />
* Nach Fehlerquadratmethode: <math> A = P'P^T ( P P^T)^{-1} </math><br />
** A ... Transformationsmatrix<br />
** P 3xn Matrix für n Passpunkte (Quellkoordinaten)<br />
** P' Zielkoordinaten<br />
<br />
= Grauwertstatistik (GwSt 1 - 25) =<br />
* Wird eingesetzt um<br />
** Bilder zu charakterisiren<br />
** Verarbeitungsalgorithmen zu Steuern<br />
** Pixel zu klassifizieren<br />
** Bildsegmentierung durchzuführen<br />
** Texturen zu charakterisieren<br />
* Beschreibung erfolgt durch<br />
** Mittelwert<br />
** Varianz, Schiefe, Exzess<br />
** Entropie<br />
** statistische Momente<br />
** Wahrscheinlichkeitsdichten<br />
* Farbbilder führen zu Mehrdimensionalenverteilungen<br />
<br />
== Co-Occurrence-Matrix ==<br />
* Beschreibung der Häufigkeit des Auftretens von Grauwertpaaren entlang eines Verschiebungsvektors<br />
** Schätzung der Verbundwahrscheinlichkeit<br />
** Bei einem 8-bit Bild ergibt sich eine 256x256 Matrix für eine Verschiebung!! → Es wird meist mit verminderten Farbauflösungen gearbeitet<br />
*ermöglicht aussagen über die Beschaffenheit der zu untersuchenden Textur<br />
** Werte nahe der Hauptdiagonale sprechen ehr für eine Konstrastarme homogene Textur<br />
** Werte an den Randbereichen sprechen ehr für eine konstrastreiche Textur<br />
**<br />
* Stark Richtungsabhänig da ein Verschiebungsvektor gewählt werden muss<br />
* Invariant in grenzen gegenüber additiven Helligkeitsschwankungen<br />
* Aus der Co-Occurrence-Matrix wurden verschiedene Maße abgeleitet<br />
** Energie<br />
** Entropie<br />
** Kontrast<br />
** inverses Differenzmoment<br />
** Korrelation<br />
<br />
== Modifizierte Co-Occurrence-Matrix ==<br />
* Richtungsabhängigkeit wird aufghoben in dem man nun alle Pixel im Abstand d zum Aufpunkt betrachtet<br />
* Es werden nun ähnliche Grauwerte gezählt in dem eine Relation eingeführt wurde (Änderung des Grauwertes im Aufpunkt zum Grauwert in der Nachbarschaft darf einen bestimmten wert nicht überschreiten um gezählt zu werden )<br />
* Additive Helligkeitsüberlagerung verschiebt die Grauwertstatistik lediglich und ändert nicht ihre Form (natürlich nur so lange wie nicht geclipt wird) → geeignetes Merkmal zu Erkennung bestimmter Texturen<br />
<br />
= Punktoperationen (PO 1 - 22) =<br />
* Grauwerte werden nur in Abhängigkeit von anderen Grauwerten und dem Wert selbst geändert<br />
** Abhängigkeit der Pixelposition kann berücksichtigt werden<br />
* Man unterscheidet zwei Arten<br />
**'''inhomogene Punktoperationen''' wenn auch die Pixelposition mit eine Rolle spielt (alle gw werden in Abhängigkeit von ihrer Position geändert)<br />
**'''homogene Punktoperationen''' wenn die Position nicht mit berücksichtigt wird (alle gw werden gleich geändert)<br />
<br />
== inhomogene Punktoperationen ==<br />
=== Shadingkorrektur ===<br />
* Ursache für Abschattungen im Bild:<br />
** inhomogene beläuchtung<br />
** Randabfall des Objektivs<br />
** Inhomogenität des Bildsensors (Unterschiedliche Pixelempfindlichkeiten, Transportverluste)<br />
* Korrektur ist notwendig wenn hochpreäziese Bestimmte Strukturorte bestimmt werden sollen (z.b. Kanten müssen sauber erkannt werden)<br />
** Bei radiometrischen Messungen (geht ja nicht an das das die erkannte Farbe am Rand dunkler ist als in der Bildmitte)<br />
** Wenn nachfolgende Algorithmen mit Schwellwerten Arbeiten<br />
* Korrektur erfolgt linear<br />
** Dunkelsignal für jedes Pixel abziehen<br />
** gw mit ein Faktor multiplizieren so das der gewünschte Maximale Grauwert erreicht werden kann<br />
** Bei digitaler Korrektur erhöht sich die Farbauflösung nicht → wenn vorher die werte zwischen 0...128 lagen und dann auf 0..255 aufgezogen werden dann wird nur jede zweite Grauwertstufe mit einem Wert versehen<br />
** Bei analoger Korrektur kann die Farbauflösung erhöht werden .... ist aber wesentlich aufwendiger<br />
<br />
== homogene Punktoperationen ==<br />
* Ziele:<br />
** Linearisierung bzw Formung der Kennline des Systems<br />
** Anpassung an unterschiedliche Beleuchtungen und Kontrastverhältnisse<br />
<br />
=== Polygonal Image Scaling ===<br />
* als Übertragungsfunktion wird ein Polygonzug benutzt<br />
* Kennlinie kann aus der Sensorkennline gewonnen werden wenn z.b. eine Linearisierung vorgenommen werden soll<br />
* Oder kann per Hand festgelegt werden → z.B. zur Kontrastverbesserung<br />
* LUT - werden eingesetzt um schnell die neuen Grauwerte zuweisen zu können<br />
* Polygonzug kann aus den Statistischen Momenten konstruiert werden so das eine automatischer Histogrammausgleich erfolgen kann → Contrast Stratching<br />
** Funktioniert nur wenn das Histogramm eine geeignete Verteilung aufweist<br />
<br />
=== Histogrammausgleich ===<br />
* Die Anzahl der Pixel in einem Bild ist konstant<br />
* Wenn die Transferfunktion zwischen Grauwerten bekannt ist kann das neue Histogramm aus dem alten direkt berechnet werden<br />
** Anzahl der Pixel unter der Kurve ist konstant<br />
** <math> h_B(gw) = \frac{h_A(f^{-1}(gw))}{f'f^{-1}(gw)} </math><br />
** <math>f</math> ... Die Transferfunktion<br />
** <math>f'</math> ... Ableitung der Transferfunktion<br />
** <math>f^{-1}</math> ... Umkehrfunktion der Transferunktion<br />
** <math>h_A</math> ... Ausgangshistorgamm<br />
** <math>h_B</math> ... Zielhistogramm<br />
* Damit läßt sich aber auch die Transferfunktion berechnen die Notwendig ist um eine bestimmte Histogrammform zu erreichen<br />
==== Entropiemaximierung ====<br />
* automatische, nichtlineare Grauwertransformation<br />
* Zielhistogramm ist im mittel eine Gleichverteilung<br />
* Nun lässt sich die Transferfunktion berechnen und ergibt sich zu<br />
** <math> f(gw) = gz_B P(gw) </math><br />
*** <math> gz_B </math> .... gewünschte Anzahl der Graustufen im Zielhistogramm<br />
*** <math> P(gw) </math> .... Wahrscheinlichkeit für das Auftreten des Grauwertes im Quellbild (Kommt aus dem Quellhistogramm Wert/Pixelzahl)<br />
<br />
= Lokale Operatoren zur Bildverbesserung (LOa 1 - 44) =<br />
* '''globale Operatoren'''<br />
** alle Bildpunkte fließen in die Berechnung jedes Bildpunktes des Zielbildes mit ein<br />
** bekanntes Beispiel ist die Fouriertransformation<br />
* '''lokale Operatoren'''<br />
** nur eine beschränkte Umgebung um den Aufpunkt fließt in die Berechnung des Zielpixels ein<br />
*** '''akausal''' sowohl vorrausgehende als auch Nachfolgende Pixel werden mit berücksichtigt<br />
*** '''kausal''' nur vorrausfolgende Pixel werden berücksichtigt (meist unsymetrische Filtermasken, ist ehr die Ausnahme)<br />
<br />
== Tiefpassfilter ==<br />
* die wesentlichen Bildinhalte liegen meist in den mittleren und niedrigen Frequenzen<br />
* hohe Frequenzen beinhalten oft die Hauptteile des Bildrauschens<br />
* Filter müssen mittelwerterhaltend sein → Summe aller Gewichte muss 1 ergeben<br />
* Filter dürfen die Objektpositionen nicht verändern → Phasenverschiebung =0 → nur symetrische Filter<br />
<br />
=== Spalttiefpass ===<br />
* aka Boxoperator<br />
* einfachste Form zur Dämpfung von Rauscheinflüssen<br />
* Mittelwertbildung im Ortsbereich<br />
* nicht Monoton abklingend im Frequnzbereich (schwingt wieder auf)<br />
<br />
=== Dreieckfilter ===<br />
* Gewichte sind Dreiecksförmig verteilt 1/16 ([1 2 1]^T * [1 2 1])<br />
* im Vergleich zum Spalttiefpass<br />
** besitzt geringeres Aufschwingen<br />
** größere obere Grenzfrequenz<br />
** geringere Anisotropoe<br />
<br />
=== Binomialfilter ===<br />
* binomiale Wichtung reduziert die Nachteile von Box- und Dreiecksfilter<br />
* Filterkoeffizienten kommen aus dem Pascalschen Dreieck<br />
** bsp 5x5 1/256([1 4 6 4 1]^T * [1 4 6 4 1])<br />
* im Vergleich<br />
** Das Überschwingen verschwindet bei großen Fenstergrößen<br />
** isotropes Verhalten<br />
** noch höhere Grenzfrequenz als der Dreiecksfilter<br />
* Binomialfilter entstehen auch duche die Kaskadierung von Boxfiltern<br />
** Interressant für die Effiziente Implementierung wenn Zwischenergebnisse genutzt werden können<br />
** Parallelisierbarkeit<br />
* effektive Filterbreite kann erhöht werden in dem man Zeropadding (einfügen von Nullen) durchführt<br />
** Der Nachteil ist das unerwünschte Frequenzen nun voll übertragen werden<br />
** Lösung ist das Kaskadieren verschiedener Filter<br />
** somit kann eine sehr kleine Grenzfrequenz erreicht werden ohne das es zu störenden Nebenmaxima kommt<br />
* Für große Filterbreiten nähren sich die Gewichte der Gaußglockenkurve an<br />
<br />
=== effektive Filterbreite ===<br />
* um Filter mit einander zu vergleichen muss ein Vergleichmaß gefunden werden<br />
* Aufsummieren der Quadratischen Abstände der Gewichte von der Filtermitte gewichtet mit eben diesen Gewichten ergibt die Varianz als effektive Filterbreite<br />
* Filter können so mit dem entsprechenden Boxfilter verglichen werden<br />
<br />
== Nichtlineare Filter ==<br />
* notwendig wenn einzelne Pixel keine relevanten Informationen mehr Tragen (defekt Pixel z.B.)<br />
* Mittelung würde den Fehler nur verschmieren<br />
* Zweites Anwendungsgebiet ist das unterdrücken von Gaußschem Rauschen ohne das dabei Kanten verschmiert werden<br />
<br />
=== Medianoperator ===<br />
* Berechnung erfolgt NICHT durch Faltung<br />
* Günstig ist die Ermittlung des Medianwertes aus dem Histogram des Bildfensters<br />
* Medianfilter unterdrückt auch bei kleinen Koppelweiten effektiv Impulsrauschen und vermeidet nahezu Verunschärfungen im Bild<br />
* Filter funktioniert nicht für Gaußches Rauschen !!!<br />
<br />
=== gewichtete Mittelwertbildung ===<br />
* es soll nur dann gefiltert werden wenn keine Kante im Filterfenster vermutet wird → Erhaltung der Kanten und trozdem Rauschunterdrückung<br />
* Kann z.B. erreicht werden in dem man sagt das die mittlere Abweichung im Fenster eine bestimmte Schwelle nicht überschreiten darf sonst wird der filter halt einfach nicht angewendet<br />
* Das Ganze kann mit verschiedenen Wichtungen der Nachbarpixel passieren<br />
* Man unterscheidet ausserdem das '''harte Entscheidungskriterium''' bei dem es nur Filtern und nicht Filtern gibt und das '''weiche Entscheidungskriterium''' bei dem es auch ein bischen Filtern gibt<br />
* Es besteht die Möglichkeit das ganze Gradienteninvers zu machen<br />
** Die Idee ist hier das Kanten einen hohen Gradienten im Bildfenster erzeugen <br />
** wenn also kein hoher Gradient vorliegt dann ist vermutlich keine Kante im Fenster<br />
* Eine weitere Möglichkeit ist das Filtern von der Varianz im Bildfensterabhängig zu machen<br />
** kleine Varianz heiß keine Kante<br />
** hohe Varianz vermutlich eine Kante<br />
<br />
=== Kombination von Average und Medianfilterung ===<br />
* Ziel ist es beide Filter geeignet zu Kombinieren damit man die Vorteile beider Filter nutzen kann<br />
* Extended Median Filter<br />
** average Filter immer dann wenn die Abweichung des Resultierenden Grauwertes von Originalwert kleiner ist als die des Medianfilters<br />
** Medianfilter immer dann wenn nicht der average Filter genommen wird<br />
* α - trimmed Median filter<br />
** Mittlung der Funktionswerte die in einer α-Umgebung um den Median liegen (nach dem Sortieren der Funktionswerte)<br />
<br />
= Effiziente Implementierung von lokalen Operatoren (EI 1 - 12) =<br />
== Dekomposition von Faltungsoperatoren ==<br />
* statt eines großen Operators wird dessen Koppelweite erreicht in dem man n Päße mit mehreren kleinen Operatoren ausführt<br />
* damit lässt sich der Rechenaufwand auf etwa 50% senken<br />
* nicht alle Operatoren lassen sich dekomponieren<br />
** eine Dekomposition ist immer dann möglich wenn die Matrix linear Abhängige Zeilen und Spalten enthält also nicht den vollen Rang besitzt<br />
** Je nach Größe der dekomponierten Matrizen müssen mehr oder weniger Zeilen linear Abhänig sein<br />
** Bei einer 5x5 Matrix muss der Rang <=3 sein damit sie sich in zwei 3x3 Matrizen zerlegen lässt<br />
<br />
== Separierung von Fensteroperatoren ==<br />
* Zerlegung eines 2D-Filters in 2 Pässe mit einem 1D-Operator (eine 1xn und einen nx1 Operator)<br />
* Erhebliche Reduzierung des Rechenaufwandes (bei einem 7x7 Filter sinkt er auf 30%)<br />
<br />
== Updating ==<br />
* Wiederverwendung von Zwischenergebnissen aus benachbarten Operatoren<br />
* Erforder gegebenenfalls "kreatives" Verschieben des Operators (Zeilenweise, Meanderförmig, Hilbertkurve)<br />
* Bei Boxfilter z.B. brauchen nur die neuen Pixel hinzugenommen werden und die alten abgezogen werden<br />
* Unter Verwendung von Separierbarkeiten kann der Rechenaufwand darmatisch gesengt werden<br />
* Boxoperator z.B. brauch nur 4 Operationen pro Pixel unabhängig von der Größe (wenn man jetzt mal den Anfang und die Ränder Vernachläßigt)<br />
<br />
= Beispiel zu Median und Mean bei Gaußschem Rauschen (LOa 45 - 54) =<br />
* Siehe [[#Nichtlineare_Filter|Nichtlineare Filter]]<br />
<br />
= Diffusionsfilter (DiFi 1 - 10) =<br />
* Ist die Anlehnung an den Physikalischen Diffusionsprozess<br />
* Es werden drei Diffusionsmodelle unterschieden<br />
*# Isotrope homogene Diffusion (einfach alles gleichmäßig wegdiffundieren)<br />
*# Isotrope inhomogene Diffusion (Stärke der Diffusion wird durch das vorhandensein einer Kante beeinflusst)<br />
*# Anisotrope Diffusion (Diffusion erfolgt nur noch parallel zu Kanten)<br />
<br />
== Mathematik des Diffusionsfilters ==<br />
* Die Divergenz (kurz DIV gibt) gibt an wieviel in ein Volumen einströhmt oder ausströmt<br />
** ein skalarer Wert<br />
** in kartesischen Koordniaten ist div (W) = Summe der partiellen Ableitungen von W nach seinen Komponenten<br />
* Die Änderung der Konzentration erfolgt entgegengesetzt zu divergenz des Konzentrationsflusses<br />
** <math> \frac{\partial F(x,y,t)}{\partial t}=-\text{div}\vec{\psi }</math><br />
** Und der aktuelle Fluss ist wiederum natürlich von der aktuellen Konzentration abhängig<br />
** <math> \vec{\psi }=-D(x,y)\nabla F(x,y)=-D(x,y)\left(\begin{matrix}\frac{\partial F}{\partial x}\\\frac{\partial F}{\partial y}\end{matrix}\right)</math><br />
** Mit Hilfe der Matrix D kann nun das gewünschte Diffusionsverhalten eingestellt werden<br />
*** Mit dieser Matrix gibt man an wie sich ein Gradient in X bzw Y Richtung auf den Fluss auswirken soll<br />
* Eine Taylorreihenentwicklung kann genutzt werden um eine iterative Berechnungsvorschrift für die neue Konzentration aus der alten Konzentration zu erhalten<br />
** <math> F(x,y,t_{i+1}) = F(x,y,t_i) + (t_{i+1} - t_i) \cdot \left [ \frac{\partial F(x,y,t)}{\partial t} \right ]_{t_i}</math><br />
<br />
== isotrop homogener Filter ==<br />
* Beim isotrop homogener Filter muss die Filterung richtungsunabhänig und Gradientenunabhängig erfoglen<br />
* D wird also wie folgt eingestellt<br />
** <math> D=\left[\begin{matrix}\epsilon _{0}&0\\0&\epsilon_{0}\end{matrix}\right]</math><br />
* es wurde analytisch nachgewiesen das eine solche Einstellung nichts anderes bewirkt als mit einem Gaustiefpass zu Falten<br />
<br />
== isotrope inhomogene Filterung ==<br />
* Beim isotrop inhomogenen Filterung muss die Filterung richtungsunabhänig aber in Abhängigkeit der Gradienten erfoglen<br />
* D wird also wie folgt eingestellt<br />
** <math> D=\left[\begin{matrix}\epsilon (\|\nabla F(x,y,t)\|^{2})&0\\0&\epsilon(\|\nabla F(x,y,t)\|^{2})\end{matrix}\right]</math><br />
** für das variable <math> \epsilon</math> kann man sich dann tolle dinge einfallen lassen z.B.<br />
** <math> \epsilon (x) = \epsilon_0 \cdot \frac{\lambda^2}{x+\lambda^2}</math><br />
*** <math>\lambda</math> Steuert dabei wie stark die Diffusion an Grandienten zurückgeht</math><br />
* Der Filter ist mit den streunungsinversen bzw. Gradientenabhänigen Filtern vergleichbar und hat keine neuen tollen Eigenschaften<br />
<br />
== anisotrope inhomogene Filter ==<br />
* Die Filterung erfolgt nun abhängig vom Gradienten nur in bestimmte Richtungen<br />
* D ist nun voll besetzt und wird wie folgt Konstruiert<br />
** <math> D=\left[\begin{matrix}\epsilon _{1,1}&\epsilon _{2,1}\\\epsilon_{1,2}&\epsilon _{2,2}\end{matrix}\right]\cdot \left[\begin{matrix}\lambda _{1}&0\\0&\lambda _{2}\end{matrix}\right]\cdot \left[\begin{matrix}\epsilon_{1,1}&\epsilon _{2,1}\\\epsilon _{1,2}&\epsilon_{2,2}\end{matrix}\right]</math><br />
** Die Eigenvektoren <math> (\epsilon_{1,1},\epsilon _{1,2})^T</math> und <math> (\epsilon_{2,1},\epsilon _{2,2})^T</math> geben dabei die Richtung der Diffusion vor und mit den Eigenwerten <math> \lambda_1 </math> und <math> \lambda_2 </math> kann die Stärke der Diffusion in diese Richtung eingestellt werden<br />
** Um nur Diffusion parallel zu den Kanten zu haben wählt man einen Eigenvektor in Richtung des Gradienten und den anderen senkrecht dazu<br />
** Bei dem Eigenvektor senkrecht zum Gradienten stellt man den zugehörigen Eigenwert auf eine Konstante größe z.B. 1<br />
** Der Eigenwert in Richtung des Gradienten hingegen wird mit der wie beim isotropen inhomogenen Filter invers zum Gradienten eingestellt<br />
* Dieser Filter ermöglicht eine gute Rauschunterdrückung auch in Kantennähe und besitzt trozdem eine sehr gute Kantenerhaltung<br />
<br />
= Bildrestauration (BR 1 - 4) =<br />
* Ziel ist es bekannte deterministische Störungen rückgängig zu machen<br />
* So z.B. die verschmierende Wirkung der PSF<br />
* Dazu muss diese ersteinmal ermittelt werden<br />
* Idee: Anwendung der Inversen der störenden Funktion<br />
** im Frequenzbereich braucht man nur durch die Funktion zu teilen (theoretisch ;))<br />
* Problematisch sind Nullstellen und Werte nahe 0 der Inversen Funktion ... hier sind alle Informationen futsch und ein dividieren durch 0 macht alles nur schlimmer nicht besser<br />
** Eine mögliche Lösung ist einfach das weglassen der entsprechenden Frequenzen in dem die Korrekturfunktioin einen mindestwert überschreiten muss bevor man Anfängt die stelle zu Korregieren<br />
* Ein weiteres Problem ergibt sich wenn man nun noch additives Rauschen annimmt<br />
** Diesees wird vorallem bei hohen Frequenzen stark verstärkt und macht das Ergebnis damit unbrauchbar<br />
* Das Wiener Filter versucht diese Probleme zu Berücksichtigen und zu minimieren in dem es ein Rauschmodell annimmt<br />
<br />
= Morphologische Operationen zur Binärbildverarbeitung (MO 1 - 26) =<br />
* in diesem Kapitel geht es vorallem um Binärbilder die mit Hilfe von Schwellwertoperationen oder durch Labelung entstanden sind<br />
* Ziel ist:<br />
** Objektformen zu verbessern<br />
** Formen zu erkennen und zu extrahieren<br />
<br />
== Basisoperationen Erosion und Dilatation ==<br />
* '''Definitionen'''<br />
** Binärbild ... eine NxM Matrix bestehend aus 0 und 1, wobei alle indizes Positiv sind<br />
** Strukturierendes Element ... eine KxL Matrix aus 0 ,1 und don't care, wobei wenn nicht ausdrücklich anderst angegeben der Wertebereich der indizes von -K/2 bis +K/2 bzw. -L/2 bis +L/2 geht<br />
*** Symetrisch zum Aufpunkt in der Mitte<br />
*** Muss nicht Quadratisch sein ... <br />
* '''Erosion'''<br />
** Abtragen<br />
** Der Aufpunkt des Strukturierenden Elements wird im Zielbild nur gesetzt wenn alle Werte im Strukturierenden Element UND verknüpft mit dem Bild 1 ergeben<br />
* Dilatation<br />
** Anlagern<br />
** Der Aufpunkt des Strukturierenden Elements wird im Zielbild gesetzt, wenn ein Werte im Strukturierenden Element UND verknüpft mit dem Bild eins ergibt<br />
* Unterverwendung von logischen Operationen ergeben sich Faltungsähnliche Ausdrücke<br />
<br />
== Opening und Closing ==<br />
* '''Opening'''<br />
** Dünnwandinge Objekte werde mit Errosion geöffnet und der Flächenverlust der anderen Objekte wird mit anschließender Dilatation ausgeglichen<br />
* '''Closing'''<br />
** Kleine Löcher/Risse werden mit Dilatation geschlossen und der Flächenzuwachs wird anschließend mit Erosion beseitigt<br />
* Beide Operationen sind Idempotent, was heißt das man sie nur einmal anwenden braucht weil jede weitere Anwendung das Ergebnis nicht mehr verändert<br />
* Die Form des verwendeten Strukturierenden Elements verändert auch die Form der Objekte im Bild<br />
<br />
== Hit & Miss ==<br />
* Dient der Extraktion einer bestimmten binären Form im Bild<br />
* Dazu werden zwei Masken definiert<br />
** Hit Maske enthält die gesuchte Objektform<br />
** Miss Maske enthält nur die Berandung der gesuchten Form<br />
* Die Hit Maske wird mit Hilfe der Errosion auf das das Bild angewendet<br />
** Alle Objekte die größer oder gleich der Hitmaske sind bleiben im Zielbild<br />
* Dann wird das negierte Quell Bild mit der Miss Maske Erodiert ... nun verschwinden alle Objekte die größer als die gesuchte Form sind<br />
* Die UND Verknüpfung beider Bilder ergibt dann das Endergebnis<br />
* Da der Schnitt der Hit und Miss Maske leer ist kann man beide durch ODER Verknüpfung zur Hit&Miss Maske zusammenführen → Es ist nur ein Pass Notwendig um die gewünschten Formen zu finden<br />
** dazu muss man aber ein negiertes XOR verwenden für die Vernküpfung von Bild und Maske<br />
* Durch einfügen von Don't Care werten kann man auch eine Variabilität der gefundenen Form zulassen<br />
<br />
== Eckendetecktion ==<br />
* Man kann spezielle Hit&Miss Masken verwenden um Ecken zu detektieren<br />
** Dafür muss die Hit-Makse den Rand es Operators berühren dürfen (vorher war die Hit-Maske vollständig von der Miss-Maske umgeben)<br />
* Beispiel für einen Operator der untere Rechte Ecken detektiert<br />
<pre><br />
x 1 0<br />
1 1 0<br />
0 0 0<br />
</pre><br />
* Die anderen alle Ecken eines Objektes kann man finden in dem man einen Satz von Operationen auf das Bild losläßt (einfach nach allen 4 Eckentypen suchen )<br />
<br />
== Thinning ==<br />
* Häufig will man Objekte bis auf einen dünnen Rand ausdünnen ohne das die Berandung aufreist<br />
* mit Errosion nicht möglich<br />
* Man verwendet wie bei Eckendektor einen Satz von Hit&Miss Masken die alle vier möglichen Kanten enthalten<br />
* Die Masken müssen Zyklische nacheinander Angewendet werden<br />
** Das Ergebnis eines Passes soll ich erst ergeben wenn man das erhaltene Ergebnis des Passes von dem gesammt Ergebnis des vorhergehenden abzieht (warum is mir momentan auch nicht klar ... werd ich in der Konsultation mal ansprechen)<br />
** So lange bis es keine Änderungen mehr im Bild gibt<br />
<br />
== Skelettierung/Zusammenhänge und Nachbarschaften ==<br />
* Basierend auf dem Jordan Theorem: eine Koninuierliche Linie trennt den Vordergrund vom Hintergrund gilt:<br />
** Im Vordergrund nutzt man die 8ter Nachbarschaft (also auch die Diagonalen sind Benachbart) <br />
** Für den Hintergrund wird nur die 4er Nachrbarschaft genutzt (Diagonalen sind nicht Benachbart)<br />
* Skeletierung ist die extraktion von 1 pixelbreiten Linien die den Vordergund noch vom Hintergrund trennen<br />
* Je nach Anzahl der Nachbarn kann man unterscheiden<br />
** 2 nichtbenachbarte Nachbarn: Ecke und Linie<br />
** 3 nichtbenachbarte Nachbarn: Verzweigungen<br />
** 4 Nichtbenachbarte Nachbarn: Kreuzung<br />
* Die Verfahren basieren meist auf dem Thinning und unterscheiden sich nur durch verschiedene Maskensätze<br />
** Der Verwendete Maskensatz bestimmt die Qualität der Skelette<br />
* Es gibt Masken die in einem Pass Lücken schließen können oder den Rand glätten<br />
<br />
= Kantendetektion (LK 1 - 38) =<br />
* Wir benötigt für die Extraktion von Segmenten und Objekten <br />
* Vektorisierung von Bildern<br />
* zwei Verfahren zur Kantendetektion und Kantenortbestimmung<br />
*# Kantenverstärkung und Schwellwertoperationen<br />
*#* Problem ist die Wahl des Schwellwertes (einerseits will man Rauschen unterdrücken andererseits auch schwache Kanten finden)<br />
*#* möglich sind auch ortsabhängige Schwellwerte<br />
*#* Man kann zwischen steigenden und fallenden Kanten mit Hilfe des Gradienten unterscheiden<br />
*# Fitting einer Modellkante<br />
*#* lokale Pixelbereiche werden geprüft ob sie mit einem Kantenmodell übereinstimmen → wenn gut dann detektion einer Kante<br />
*#* Kantenort kann Subpixelgenau bestimmt werden<br />
<br />
== Lineare Filter zur Kantendetektion ==<br />
* Kantenverstärkung bei gleichzeitiger Unterdrückung konstanter Grauwerte → Ableitungsoperatoren<br />
* Ziel ist es immer noch das die Filter den Ort der Kante nicht verschieben dürfen<br />
** Wird erreicht in dem alle Phasen um 90° gedreht werden → rein imaginäre Transferfunktion<br />
** antisymetrische Filtermasken → ungerade Fiterbreiten und eine Nullspalte in der Mitte<br />
* Berechnung des Gradienten ermöglicht auch gleichzeitiges Berechnen der Orientierung der Kante<br />
<br />
=== Roberts- und Sobeloperator ===<br />
* Roberts: <math>H_{R}=\left[\begin{matrix}1&0\\0&-1\end{matrix}\right],H_{R}=\left[\begin{matrix}0&-1\\1&0\end{matrix}\right]</math><br />
** rauschempfindlich, Gitterversatz um ungleichen Ortsbezug zu vermeiden<br />
* Sobel: <math>H_{S}=\left[\begin{matrix}1&0&-1\\2&0&-2\\1&0&-1\end{matrix}\right],H_{S}=\left[\begin{matrix}1&2&1\\0&0&0\\-1&-2&-1\end{matrix}\right]</math><br />
** Mittelwertbildung durch Dreiecksoperator → Veringerte Rauschempfindlichkeit<br />
** kein Gitterversatz weil asymetrisch in differenzierende Richtung<br />
* im Frequenzbereich ergibt sich 1D in Differenzierende Richtung ein Sin → Bandpasscharackter<br />
* Höhere Koppelweiten führen dazu das mehrere Bänder an frequenzen durchgelassen werden (Sinus im Frequenzbereich bekommt eine höhere Frequenz)<br />
** Steile Kanten werden unscharf im Ort<br />
** Flache Kanten haben eine höhere Antwort<br />
<br />
=== Differenzierter Gauß ===<br />
* Gradientenoperation auf das Gaußgeglättete Bild<br />
* leint an Auflösung anpassbar<br />
* einfache Realisierung unterschiedlicher Grenzfrequenzen<br />
* optimaler Kompromiss zwischen Lokalisation und Detektion<br />
* ist Seperierbar<br />
<br />
== Kanten- Differentialoperatoren 2. Ordung ==<br />
=== Laplace Operator ===<br />
* Differenzen zwischen benachbarten Neigungen → steigende und fallende Katen werden durch Vorzeichenfolgen unterschieden nicht nur durch das Vorzeichen allein<br />
* Doppelkonturen bei Betragsbildung<br />
* Kantenort wird durch den Nulldurchgang bestimmt<br />
* Im Frequenzbereicht ergibt sich ein Bandpass mit ½-½*cos(pi*k)<br />
<br />
=== Laplacian of Gaussian ===<br />
* Besteht aus 2 Gausfunktionen<br />
* Hat gegenüber dem Laplace Operator eine größere Koppelweite bei gleichzeitiger 2D - Gaußglättung<br />
* ist der Menschlichen Wahrnehmung sehr nahe<br />
* geringe Rauschempfindlichkeit<br />
* erkennt auch geringe Kanten<br />
<br />
== nichtlineare Kantenhervorhebung ==<br />
* verschiedene Möglichkeiten<br />
** nichtlineare Verknüpfung linearer Teilergebnisse → Rosenfeld<br />
*** Betrag oder L2-Norm<br />
*** Summe der Beträge oder L1-Norm<br />
*** Naximale Komponente oder L∞-Norm<br />
** nichtlineare Transformation der Grauwerte und linearer Kantenoperator → Wallis<br />
** nichtlineare Kantenhervorhebung im Grundsatz<br />
<br />
=== Rosenfeld Operator ===<br />
* Verwendung mehrerer Verschiedengroßer Operatoren der Form -1 1, -1 -1 1 1, -1 -1 -1 1 1 1 , ...<br />
* Multiplikative Verknüpfung der Ergebnise der einzelnen Operatoren → Unterstuützung aller positiven Eigenschaften<br />
<br />
=== Wallis ===<br />
* Der Logarithmus der Luminanz des Zentralenpixels muss die mittlere logarithmische Luminanz seiner 4 nächsten Nachbarn übersteigen<br />
* Nach Logarithmengesetzt führt das dazu das das Verhaltnis des Zentralpixels zum Produkt aller Nachbarn größer einer bestimmten schwelle sein muss<br />
* Entspricht dem Laplaceoperator angewendet auf logarithmischen Daten<br />
<br />
=== morphologische Kantendetektion ===<br />
* Durch Anwenden von Errosion bzw. Dilatation auf ein Bild und anschließendem abziehen des Ergebnisbildes vom Ursprungsbildes entsteht ein Kantenbild bei dem die Kante um ein Pixel in das Objekt bzw aus dem Objekt herraus geschoben wurde<br />
* Durch Anwenden des Minimusoperators zwischen beiden Ergebnisbildern kann der Kantenort genau bestimmt werden (Kante muss vorher geglättet werden)<br />
* gute Rauschunterdrückung<br />
<br />
= Segmentierung von Bildern (RS 1 - 15) =<br />
* Ziel ist es die Bildinhalte zu strukturieren<br />
* Dazu muss man zusammenhängende Bereiche im Bild finden die ähnliche Eingenschaften haben<br />
* Die Segmente haben bestimmte Eigenschaften<br />
** Alle Segmente sind zusammenhängend<br />
** der Schnitt zweier Segmente ist leer<br />
** Es gibt keine zwei Segmente die die gleichen Eigenschaften haben<br />
** Die Vereinigung aller Segmente ergibt das Bild<br />
<br />
== Regionsorientierte Segementierung Pixelklassifikation ==<br />
* Klassifikation von grauwertigen bzw farbigen Bildern<br />
* Uniformitätskriterien werden aus dem Histogramm entnommen<br />
* Für die Automatische ermittlung der Uniformitätskriterien sollten es möglichst einfache Zweiklassenprobleme sein<br />
** hoher Kontrast<br />
** gleichmäßige Ausleuchtung<br />
* Lernen von Trenngeraden mit Hilfe von statistischen Operationen aus vorgelabelten Beispielen<br />
<br />
== Segmentierung - K&Z- Zeilenkoinzidenzverfahren ==<br />
* Anwendung nach der Pixelklassifikation<br />
* Zeilenweise Testen zu welcher Klassen das Pixel gehöhrt, jeweils die "Region" der Nachbarn übernhemen<br />
* wenn zwei verschiedene Regionen aufeinander Treffen → eintrag in Äquivalenzliste<br />
* im zweiten Pass alle indirekten Äquivalenzen auflösen<br />
* Ergebnis ist ein Bild in dem die verschiedenen Regionen einer Klasse markiert sind<br />
<br />
== Region Growing ==<br />
* Beachten der Uniformität und der Nachbarschaft gleichzeitig<br />
* Zufälliges setzen von kleinen Wachstumskernen<br />
* Kerne auf Objektkanten werden entfernt<br />
* Zyklisches Wachsen aller Regionen bei fortlaufender Berechnung der Regionseigenschaften<br />
* nach dem die Regionen aufgehöhrt haben zu Wachsen werden die Uniformitätskrieterien so lange aufgeweicht bis alle Pixel zugeordnet wurden<br />
* Nach Abschluss des Wachstums erfolgt das verbinden von benachbarten Regionen mit gleichen oder ähnlichen Eigenschaften<br />
** Auflösen von Schwachen Kanten<br />
* Danach Neuberechung der Eigenschaften der Region und wieder von vorne beginnen<br />
* Probleme<br />
** Regionen ohne Kerne wachsen zu<br />
** viele Kerne führen zu hohen Aufwand<br />
<br />
== Split and Merge ==<br />
* rekursives Zerlegen des Bildes so lange bis homogene Bereiche im Sinne des Uniformitätskriteriums gefunden wurden<br />
* Im Merge Schritt werden alle benachbarten Regionen mit gleichen Eigenschaften verbunden (Baumstruktur ist hier von Vorteil)<br />
<br />
= Kontursegmentierung / Konturapproximation (LBS 1 - 37) =<br />
== Linienverfolgung in Linienbildern ==<br />
* ''' Suchstrahlmethode '''<br />
** Ausgangspunkt ist ein Punkt der Linie/Kontur<br />
** Linie wird immer in Richtung des größten Mittelwertes fortgesetzt<br />
* '''Einbereichsverfahren'''<br />
** im Radius R wird ein Kreis Segment gelegt<br />
** Die Grauwerte auf dem Kreis werden über ihren Winkel abgetragen<br />
** Linie wird in Richtung des größten Grauwertes vortgesetzt<br />
** Anfällig gegenüber Störungen und Unterbrechungen der Kontur<br />
* '''Mehrbereichsverfahren'''<br />
** Erweitern des Einbereichsverfahren durch mehrere achsenparallele Schnitte (Mittelung über mehrere Grauwerte)<br />
** Je nach Richtung der Linie muss die Schnittrichtung angepasst werden<br />
<br />
== Linienverfolgung in Gradientenbildern ==<br />
* Graphentheoretischer Ansatz<br />
* Regeln:<br />
** Ein Graph besteht aus Knoten und Kanten und die Kanten verbinden die Knoten<br />
** Zwischen zwei Knoten exisistiert genau eine Kante<br />
** Eine Kante verbindet immer zwei Knoten (keine schleifen)<br />
** Den Kanten wird mit einer Gewichtsfunktion ein Gewicht zugeordnet<br />
** Kantenfolgen bestehen aus zusammenhängenden Kanten die immer einen gemeinsamen Knoten haben<br />
** Ein Pfad ist eine Kantenfolge aus verschiedenen Kanten<br />
** Ein Zyklus entsteht wenn der gleiche Knoten mehrmals nicht benachbart auftritt<br />
** Das Gewicht eines Pfades ist die Summer aller Gewichte der Kanten<br />
* Ziel ist es einen maximalen oder minimalen Pfad zu finden<br />
* ohne Einschränkungen führt da schnell zur kombinatorischen Explosion<br />
<br />
== Linienverfolgung in binarisierten Linienbildern ohne Skeletierung ==<br />
* Linienverfolgung erfolgt mit Hilfe von Schnitten parallel zu den Achsen<br />
** ein Schnitt besteht aus zwei "0" Punkten zwischen denen eine begrenzte Anzahl von "1" Punkten liegt<br />
* Es werden in der Nachbarschaft von bereits gefundenen Liniensegmenten weitere durch Schnitte gesucht<br />
* Keine Nachbarpunkte → Linienende<br />
* Wenn ein "1"-Punkt in der Nachbarschaft liegt aber kein gültiger Schnitt → Schnittrichtungswechsel machen<br />
** Wenn dann immer noch kein gültiger Schnitt exisistiert → Verzweigung/ Kreuzung<br />
<br />
== Linienverfolgung in skelettierten Bildern ==<br />
* Konturbilder sind binarisiert und sekelettiert<br />
* FREEMAN-Ketten<br />
** Richtungszahlen zur Beschreibung der Linien<br />
** Koordinaten für Anfangs, Endpunkte, Verzweigungen und Kreuzungspunkte<br />
* Einteilung der 3x3 Umgebung in Relevanzklassen<br />
*# irlevante Punkte (Punkte auf den Linien)<br />
*# Eckpunkte<br />
*# Endpunkte<br />
*# Kreuzungen und Verzweigungen<br />
* Wenn mehrere Relevante Pixel benachbart sind wird nur der mit der höheren Relevanz notiert<br />
* Weitere Vereinfachungen können dann durch Approximationsalgorithmen erfogeln<br />
<br />
== Modellbasierte Segmentierung (Houghtransformation) ==<br />
* Ziel ist das suchen von Objekten bei starken Störungen<br />
* Idee ist das überführen des Bildes in einen Parameteraum in dem die enthaltenen Objekte einfach abglesen werden können<br />
* Am Bsp einer Linie<br />
** Jeder Punkt kann ein Punkt beliebig vieler geraden sein<br />
** Alle diesen möglichen Parameter dieser Linien werden jetzt im Parameterraum eingezeichnet<br />
** als Transformationsformel, wenn man m vareieren möchte ergibt sich <math> b = -x \cdot m + y</math><br />
** liegen nun mehrer Punkte auf ein und der selben Gerade ergibt sich im Parameteraum ein Schnittpunkt bei dem Parameter dieser Geraden<br />
** Senkrechte geraden haben Schnittpunkte im unendlichen wenn man nicht die Hessesche Normalform für Geraden verwendet<br />
* um das verfahren zu Beschleunigen können zusätzliche Informationen genutzt werden die die möglichen Parameter einschränken können (z.B. Gradientenrichtungen bei Linien)<br />
* So lange der Parameterraum nicht zu groß wird können so beliebige Objekte gefunden werden<br />
<br />
== Segmentierung in Kurvenprimitiven ==<br />
* Ziel ist das Zerlegen eines Bildes in Kreise, Splines, Polygone<br />
* Zur Bildanalyse reicht meist die Zerlegung in Polygone<br />
<br />
=== Split & Merge ===<br />
* Zwei Punkte notwendig (einen Anfangspunkt und einen Endpunkt)<br />
*# Wähle den Punkt mit der größten Abweichung die über dmax liegen muss und füge ihn der Kontur hinzu (Split)<br />
*# Wiederhole so lange bis alle Punkte einen Abstand <dmax haben<br />
*# Verbinde Geraden die einen Winkel von 180° +- Toleranz haben (Merge)<br />
<br />
=== Strip Algorithmus ===<br />
*# Wähle die ersten beiden Punkte eines Geradensegments<br />
*# Alle Punkte innerhalb innerhalb des Slauchs liegen werden einer verketteten Liste hinzugefügt<br />
*# Der erste Punkt ausserhalb und der letzte in der Liste ergeben eine neue gerade<br />
*# Wiederhole bis alle Punkte zugeordnet sind<br />
* Problem ergibt sich wenn zwei Punkte aufgrund von Fehlern die Gerade nicht Optimal vorgeben<br />
<br />
=== Enhanced Strip Algorithmus ===<br />
*# Wähle den ersten Punkt und den ersten Punkt der ausserhalb eines Kreises mit dem Radius den Toleranzschlauches liegt<br />
*# Die beiden Punkte bestimmen die Gerade mit ihrem Toleranzschlauch<br />
*# Suche nun den am weitesten Entfernten Punkt der keinen Schnitt mehr mit dem Toleranzschlauch hat (Kreis um Punkt ist ausschlaggebend)<br />
*# nehme den vorhergehenden Punkt und beginne dort mit einem neuen Liniensegement<br />
*# Wiederholen bis alle Punkte Verbaucht sind<br />
* Hat Probleme bei Rückläufigen Kurven → Dunham hat Lösung vorgeschlagen bei dem der Punkt, der am dichtesten an dem weitentferntesten Punkt des aktuellen Segments und den größten Index hat, der Endpunkt des Segments werden sollte<br />
<br />
= Merkmalextraktion (ME 1 - 4) =<br />
<br />
= Morphometrische Merkmale (MM 1 - 14) =<br />
<br />
= Klassifikation (Klassifikation 1 - 20) =<br />
Siehe [[Grundlagen der Farbbildverarbeitung#Farbpixelklassifikation (Farbpixelklassifikation 1 - 21)|Grundlagen der Farbbildverarbeitung]]<br />
<br />
= Clusterverfahren (Klassifikation 21 - 38) =<br />
<br />
= Stochastische Approximation als Lernverfahren für Ebenenklassifikator (Farbpixelklassifikation 40 - 47) =<br />
<br />
<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Grundlagen_der_Farbbildverarbeitung&diff=6985Grundlagen der Farbbildverarbeitung2009-03-16T10:29:20Z<p>DarkGhost: /* Kantendetektion in Farbbildern (1 - 21) */</p>
<hr />
<div>Link zum [http://www.zbs-ilmenau.de/intern/vip-toolkit/index.php Vip toolkit]<br />
= Einführung (GF_a 8 - 47) =<br />
<br />
== Geschichtliches zur Farbe ==<br />
<br />
=== Newton ===<br />
<br />
* 1672: New Theory about Light and Colours<br />
** Sonnenlicht = Mischung einzelner Farben<br />
** Spektralfarben sind objektive Eigenschaft des Lichtes<br />
<br />
[...]<br />
<br />
=== Goethe ===<br />
<br />
[...]<br />
<br />
== Begriff der Farbe ==<br />
<br />
* '''Farbe im engeren Sinn, stellt eine spezielle menschliche Sinneswahrnehmung dar'''<br />
* <math>\Phi_i = \int_{\Delta \lambda_i} \varphi_{\lambda} (\lambda) d \lambda</math><br />
* Leistungsdichte <math>\phi (\lambda)</math> stellt dagegen den Farbreiz dar, der die Farbempfindung hervorruft<br />
* Vektoren <math>\underline \Phi</math> sind je nach Dimension mehr oder minder genaue Approximationen des Farbreizes<br />
<br />
* Orientierung am menschlichen visuellen System und die Betrachtung psychologischer und physiologischer Grundlagen sind von Interesse:<br />
** zur richtigen Bewertung der Schwierigkeiten und Herausforderungen bei der Schaffung technischer Lösungen<br />
** zur Anpassung technischer Lösungen der Bildwiedergabe an das visuelle System<br />
** zur Nutzung optimaler Naturprinzipien für technische Lösungen<br />
** weil technische Systeme im allgemeinen auf dem inneren Modell des Menschen von der Welt beruhen und dieses Modell in hohem Maße durch den visuellen Kanal des Menschen beeinflusst ist<br />
** weil optoelektronische Sensoren, Bildverarbeitung und Bildanalyse wichtige Schnittstellen zwischen Mensch und Maschine darstellen<br />
**weil viele Objekteigenschaften durch visuelle Eindrücke beschrieben werden<br />
<br />
* menschliches Auge kann ca. 100 Graustufen / ca. 300 000 Farben unterscheiden<br />
<br />
* Drei grundsätzliche Anwendungen von Farbinformation:<br />
** Pseudokolorierung<br />
** Falschfarbendarstellung<br />
** Echtfarbdarstellung (True Color) <math>\rarr</math> hier Schwerpunkt<br />
<br />
== Farbtäuschung ==<br />
<br />
* Zuordnung zwischen Physik und Wahrnehmung nur eindeutig wenn bunte Dinge isoliert betrachtet werden<br />
* Werden bunte Objekte in bunte Umgebungen eingebettet/bewegt, dann können abweichende Farbwahrnehmungen auftreten, so genannte Farbtäuschungen<br />
* es existieren unterschiedliche Arten solcher Täuschungen:<br />
** ''Farbinduktion oder simultaner Farbkontrast'' (Farbe wird durch ihre Umgebung modifiziert)<br />
** ''Farbkonflikt'' (es konkurrieren verschiedene Sehinformationen miteinander)<br />
** ''Subjektive Farben'' (es werden bunte Farbtöne wahrgenommen, die nicht vorliegen)<br />
<br />
'''Simultaner Farbkontrast:'''<br />
* erstmals 1839 beschrieben<br />
* wo der Effekt entsteht (Auge, Cortex) ist unklar<br />
<br />
'''Farbinduktion:'''<br />
* bei kleinteiligen, sich wiederholenden Strukturen erfolgt Angleichung<br />
* kann zur Rauschunterdrückung oder zur Unterdrückung von Feintexturen zugunsten der Erkennung größerer Objekte wichtig sein<br />
<br />
'''Farbkonflikt:'''<br />
* Formen und Strukturen konkurrieren mit Farben ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf White'sche Illusion])<br />
<br />
'''Subjektive Farben:'''<br />
* durch Bewegung ist es möglich Farben zu erzeugen die ursprünglich nicht vorhanden waren ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf Drehwurm in Farbe])<br />
<br />
== Farbwahrnehmung beim Menschen ==<br />
<br />
[...]<br />
<br />
=== Rezeptive Wahrnehmung ===<br />
* 1807 stellte Young die Hypothese auf das Farbsehen auf drei Arten von Sinneszellen beruht (rout,grün,blau)<br />
* erst 1964 konnten dies bewiesen werden, durch die Messung der Absorptionsspektren<br />
*[[Datei:Pdt-kurven.svg]]<br />
<br />
=== Postrezeptive Wahrnehmung ===<br />
* Mit dem 3 Farbenmodell konnten einige psychologische Erscheinungen nicht erklärt werden<br />
** Es werden 4 Farben als besonderst "rein" empfunden (Rto, Geln,Grün, Blau)<br />
** Unbunte Farben werden werden als das fehlen von Farben wahrgenommen<br />
** Schwarz schein gleichberechtigt zu Weiß<br />
** keine wahrgenommene Farbe erscheint zugleich rötlich und grün<br />
* das führte zur Gegenfarbentheorie die anfangs nur Psychologisch begründet war 1958 aber physiologisch Nachgewiesen werden konnte<br />
** Rot - Grün<br />
** Gelb - Blau<br />
** Schwarz - Weiß<br />
* → CIELab-Farbraum<br />
<br />
=== Kortikale Kodierung ===<br />
* Weder die 3 Farbentheorie noch die Gegenfarbentheorie beschreiben die bewusste Wahrnehmung des Menschen<br />
* Deshalb erweitertes Modell<br />
** Farbton / Buntton beschreibt die als besonderst rein empfundenen Spektralfarben<br />
** Sättigung beschreibt wie stark eine Farbe verblasst ist<br />
** Helligkeit beschreibt, wie hell oder dunkel eine Farbe ist<br />
* Wo/Wie genau die neuronale Verarbeitung erfolgt, ist noch nicht sicher belegt<br />
<br />
== Die Ordnung in der Welt der Farben ==<br />
* Newton kannte die Wellenlänge noch nicht → er ordnete die Farben nach dem Regenbogen<br />
* Goethe verwendete das Gegenfarbenmodell<br />
* Munsell schlug 1905 ein Farbordnungssystem vor bei dem alle Abstände zwischen den Farben Empfindungsmäßig gleich sind<br />
** führt zu einem geometrisch nicht regelmäßigen Körper<br />
<br />
== Das Modell der Farbe ==<br />
* '''Definition'''<br />
** Farbe ist diejenige Gesichtsempfindung eines dem Auge strukturlos erscheinenden Teils eines Gesichtsfeldes durch die sich diser Teil bei einäugiger Betrachtung mit unbewegtem Auge von einem gleichzeitig gesehenen ebenfalls strukturlos angrenzendem Bezirk allein unterscheidet (unbunte Farben: Schwarz, Weiß und Graustufen, bunte Farben: Helligkeit; Buntheit setzt sich aus Buntton und Farbsättigung zusammen)<br />
** Farbe ist durch Helligkeit, Buntton, Sättigung eindeutig bestimmt → 3D Modell<br />
*** drei linear unabhängige Größen<br />
*** Additive Mischung zur Reproduktion von Farbe (aus Rot, Grün, Blau)<br />
*** drei linearunabhängige Größen spannen immer einen Raum auf → Rot,Grün und Blau werden die Achsen dieses Raumes<br />
<br />
=== Farbvalenz ===<br />
* Mit unserem Modell läßt sich jede Farbe als linearkombination unserer drei Basisvektoren aufschreiben<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
** <math> \vec F</math> ... Farbvalenz<br />
** <math> \vec r, \vec g, \vec b </math> ... die drei Basisvektoren die den Raum aufspannen (Rot, Grün und Blau)<br />
** <math> R,G,B, |\vec F| </math> ... die Farbwerte<br />
** <math> \vec r \cdot R, \vec g \cdot G, \vec b \cdot B </math> ... die drei Primärvalenzen<br />
* Ermittelt werden die Farbwerte mit Hilfe der Vergleichsmethode<br />
** Eine Person vergleicht ein Target mit einer Farbe die aus den drei Primärvalenzen gemischt wird<br />
** wenn die Empfindung der beiden Farben gleich ist, dann notieren wir die Werte<br />
* Innere Farbmischung<br />
** das Target wird mit weißen Licht beleuchtet und wir drehen nur an dem Farbmischgerät<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
* Äußere Farbmischung<br />
** Wir beleuchten das Target mit farbigen Lichte<br />
**<math> \vec F+ B \cdot \vec b = R \cdot \vec r + G \cdot \vec g \rightarrow \vec F = R \cdot \vec r + G \cdot \vec g - B \cdot \vec b</math><br />
<br />
=== Farbreizmetrik ===<br />
* Die Farbreizfunktion <math> \varphi_\lambda</math> beschreibt die spektrale Zusammensetzung der Farbempfindungen<br />
*# Selbstleuchtende Objekte<br />
*#* <math> S_\lambda (\lambda)</math> beschreibt die spektrale Verteilung der Quelle<br />
*#* Wahrnehmung: <math> \varphi_\lambda = S_\lambda</math><br />
*# Auflicht Vorlagen<br />
*#* <math>\beta_\lambda(\lambda)</math> beschreibt den spektralen Remisionsgrad der Vorlage<br />
*#* Wahrnehmung: Licht reflektiert von der Vorlage <math> \varphi_\lambda = S_\lambda \cdot \beta_\lambda</math><br />
*# Durchlichtvorlagen<br />
*#* <math>\tau_\lambda(\lambda)</math> spektraler Transmissionsgrad der Vorlage<br />
*#* Wahrnehmung von Licht welches die Vorlage durchdrungen hat <math>\varphi_\lambda= S_\lambda \cdot \tau_\lambda</math><br />
* Damit haben folgende Faktoren Auswirkung auf die Wahrgenommene Farbe<br />
*# Die Beleuchtung des Objektes (Spektrale Zusammensetzung des Lichtes der Lampe)<br />
*# Das Remmisionsverhalten der beleuchteten Oberfläche<br />
*# Die wellenlängenabhängige Empfindlichkeit der drei Zapfen des Auges<br />
* Es besteht die Möglichkeit die pdt Kurven direkt zur Beschreibung des Farbempfindens zu nutzen<br />
* Die Farbwerte könnte man dann wie folgt ermitteln: <math> \left(\begin{matrix}P\\D\\T\end{matrix}\right)=k\int_{380\mathit{nm}}^{780\mathit{nm}}\varphi (\lambda )\cdot \left(\begin{matrix}p(\lambda )\\d(\lambda )\\t(\lambda )\end{matrix}\right)d\lambda </math><br />
* Für die technische Darstellung von Farbe werden allerdings R,G,B werte benötigt<br />
* Die dafür notwendigen Spektralwertkurven können mit Hilfe der Vergleichsmethode ermittelt werden<br />
* Man erhält damit folgende Kurven<br />
[[Datei:SpektralwertfunktionenRGB.jpg]]<br />
* Mit der gleichen Formel wie bei der pdt Kurve lassen sich nun die R,G,B Werte rechnerisch ermitteln<br />
<br />
== Farbanalyse, Zusammenhang mit der Farbwidergabe ==<br />
* Das Kammera - Monitor System soll die Farbe exakt wiedergeben<br />
* Der Monitor verwendet EBU Phosphore für die Farbdarstellung<br />
** haben selbst Spektralwert kurven => keine Monochromatischen Lichter mehr<br />
* Die notwendigen spektralwertkurven die die Kamera realisieren muss um die Bilder auf dem Monitor exakt darzustellen lassen sich mit Hilfe der pdt Kurven herleiten (Über forderung der Gleicheit der Farben)<br />
* Sie besitzen stark negative Anteile => Auch die Filter der Kamera müssten negative Transsmissionsgrade besitzen<br />
** technisch ist das nicht möglich<br />
* es bleibt also nur die Möglichkeit die notwendigen Parameter zur Ansteuerung des Monitors aus positive one-peak Kurven zu berechnen<br />
<br />
== Subtraktive Farbmischung ==<br />
* Die Subtraktive Farbmischung lässt sich auf die Multiplikation der Transmissionsgrade zurückführen (ein Filter lässt 50% rotes licht durch, wenn man zwei dieser Filter hintereinander legt, dann geht nur noch 25% rotes Licht durch die Anordnung (0.5*0.5 = 0.25) )<br />
* wenn <math> \tau_0 </math> die Transmission eines Filters für die normierte Dicke 1 und die normiert Dichte 1 ist dann kann man<br />
** mit dem Lambertschen Absorbtionsgesetzt die Absortption von dickern/düneren Material berechnen <br> <math> \tau = [ \tau_0]^w </math><br />
*** w ... Dicke des Materials im Verhältnis zum norm Material<br />
** mit dem Beerschen Gesetz die Transmission von Meterial mit anderer Dichte berechnen <br><math> \tau = [ \tau_0]^c </math><br />
*** c... Das Verhältnis der neuen zur alten Dichte<br />
** kann man auch kombinieren zu (Lambert-Beersches Gesetz)<br />
** <math> \tau = [ \tau_0]^{c \cdot w} </math><br />
* Da sich die Transmission Multiplikativ zusammensetzt wird auch gerne mit dem logarithmus der Transmission gerechnet (optische Dichte)<br />
**<math> D = - lg \tau = lg \frac{1}{\tau}</math><br />
** Damit vereinfacht sich das Lambert-Beersche gesetz zu: <math> D = c \cdot w \cdot D_0</math><br />
* selbstverständlich sind die Transmission <math>\tau</math> und die optische Dichte D von der Wellenlänge abhänig ... zur Übersichtlichkeit wurde das in den Formeln nur weggelassen<br />
* Bei einem Papierbild kommt zu dem Filter noch die Reflexion an der Farboberfläche und an der Papieroberfläche<br />
** Beachte das Licht was an der erste Schicht wegreflektiert wird kann icht tiefer eindringen. Nur noch <math> (1-\beta)*S </math> dringt an Licht durch den ersten Filter!<br />
*** <math> \beta </math> ... Remmisionsgrad der ersten Farbe<br />
*** <math> S </math> ... Spektrale Verteilung der Lichtquelle<br />
<br />
= Farbmetrische Schnittstellen - Farbräume (GF a 49 - 55) =<br />
<br />
<pre><br />
Unterschiedliche bildgebende Systeme<br />
z.B. Farbkameras<br />
Farbscanner<br />
Spezialkameras<br />
</pre><br />
'''Widerspruch''' <math>\updownarrow</math> Farbmetrische Schnittstelle<br />
<pre><br />
Unterschiedliche Bildwiedergabesysteme<br />
"True-Color-Darstellung"<br />
- unterschiedliche Monitore, Beamer, Drucker etc.<br />
</pre><br />
<br />
== Leuchtdichte (Luminanz) ==<br />
<br />
* Luminanz Y ist die Strahlungsleistung, bewertet mit der spektralen Empfindlichkeitsfunktion des Auges für das Hellempfinden<br />
* Y ist Leistungsproportional, wenn Lichtzusammensetzung (Leistungsdichte <math>\Theta (\lambda))</math> konstant bleibt<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* Leuchtdichte berechnet sich nach dem ''Abneyschen Gesetz'':<br />
: <math> Y = L = k \cdot \underline L^T \cdot \underline F </math><br />
:* <math>\underline L^T - </math> Leuchtdichtebeiwert: gibt an wie groß der Beitrag jedes Farbwertes der Farbvalenz zum Helleindruck ist, abhängig vom gewählten Farbwiedergabesystem<br />
* Leuchtdichte L <math>\ne</math> Intensität I<br />
: <math> I = \frac 1 3 (R+G+B)</math><br />
<br />
* die perzeptuelle Antwort unseres Auges auf die Leuchtdichte wird Helligkeit (Lightness) genannt<br />
: <math><br />
L^{\star} = \begin{cases}<br />
116 \cdot \sqrt [3] {\frac Y {Y_n}} -16, & \text{wenn } \frac Y {Y_n} > 0{,}008856\\<br />
903{,}3 \cdot {\frac Y {Y_n}}, & \text{wenn } \frac Y {Y_n} \le 0{,}008856<br />
\end{cases}<br />
</math><br />
<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: Eine Quelle die nur 18% der Luminanz einer Referenz hat, erscheint uns immer noch halb so hell wie die Referenz </span><br />
<br />
== Gammakorrektur und Luma ==<br />
* '''Gammakorrektur:'''<br />
** Aufgrund der Ansteuerung von CRT Monitoren und der verwendeten Phosphore ergibt sich ungefähr eine quadratische Abhängigkeit der Luminanz vom Videosignal<br />
** Die Luminaz der drein einzelnen Farbkanäle muss den gleichen Verlauf aufweisen. Sie dürfen sich nur in ihren Maximalwerten unterscheiden!<br />
*** Sonst ist es nicht möglich die Helligkeit zu ändern und dabei die Farbe konstant zu halten<br />
** Die Gammakorrektur sorgt dafür das die Farbwiedergabe auf dem Monitor linear verläuft und nicht quadratisch<br />
*** Notwendig damit wir die gleich Wahrnehmung erzielen können als währe das Kamera-Monitor System nicht vorhanden<br />
<br />
*'''Luma:'''<br />
** Luma ist die gewichtete Summe der drei Gammakorregierten Farbwerte R',G',B'<br />
** Damit ist Luma nicht gleich Luminanz<br />
<br />
*'''Brightness'''<br />
** Brightness ist ein Begriff der beschreibt wie stark eine Fläche Licht emmitiert oder sie hell sie erscheint<br />
** Besitzt kein festes Maß und wird daher sehr frei verwendet -> HSL<br />
<br />
== Farbsysteme, Farbräume, reduzierte Farbräume ==<br />
* Die Intensität einer Farbe ist <math> I = \frac{R + G +B}{3} </math><br />
* Wählt man die Intensität konstant mit <math>I=\frac{1}{3}</math> so ergibt sich eine Ebene die den RGB-Farb Würfel Diagonal schneidet und durch die R,G,B Eckpunkte geht<br />
* Jede Farbkoordinate kann auf diese Ebene projeziert werden -> Ermöglicht die Nutzung dieser Ebene als einfache Farbtafel<br />
** Diese Ebene kann dann noch auf die 0RG- Fläche des RGB Würfels projeziert werden ohne das die Ordnung der Farben gestört werden würde -> Der Farbton einer Farbe lässt sich allein durch r und g beschreiben<br />
* in die rg-Ebene können nun alle in RGB - darstellbaren Farben und alles existierenden Farben eingetragen werden<br />
** Danach erkennt man das sich technisch mit dem RGB-System nur ein kleiner Teil der exisiterenden Farben realisieren lässt<br />
<br />
= Das Normvalenz- oder XYZ-System (GF a 76 - 86) =<br />
* Alle Farbwerte sollen durch positive Farbwerte darstellbar sein<br />
** Für Farbmessung von Interesse<br />
** Das XYZ- Dreieck muss den spektralen Kurvenzug voll umschließen<br />
* Eine weitere Forderung ist das die Leuchtdichte als unabhängige Komponete auftreten soll<br />
* Die Fläche des Dreiecks soll so klein wie möglich sein<br />
* Die dadurch berechnbaren Normalvalenzen sind physikalisch nicht erzeugbar -> Die Spektralwertkurven für das System müssen berechnet werden<br />
** Die Berechneten Spektralwertkurven sind stets nichtnegativ -> immer positive Transmissionsgrade und Sensorempfindlichkeiten<br />
[[Bild:NORMXYZ1.JPG]]<br />
* Mit dem XYZ-System kann man nun Farbdreiecke vergleichen und Bewerten<br />
** Abstände, Fehler und Systemeigenschaften sollten aber in einem empfindungsmäßig gleichabständigen Farbraum bewertet werden (u'v'w' und CIELab)<br />
* '''Optimalfarbkörper'''<br />
** Beschreibt die Grenze aller darstellbaren Körperfarben<br />
** Zur Erstellung schneidet man rechteckförmige Stückchen aus dem Spektrum von Idealweißem Licht aus<br />
<br />
== Das UVW-System ==<br />
* Informationsgehalt der Farbe für den Menschen hängt davon ab welche Farbunterschiede er wahrnehmen kann<br />
* Vor allem ist das interessant wenn Bildverarbeitungsprobleme auf der menschlichen Wahrnehmung formuliert sind<br />
* xy-Farbtafel hat starke Unterschiede zwischen örtlichen Abstenden und empfindungsmäßigen Abständen -> ungeeignet<br />
* erste Lösung<br />
** lineare Transformation<br />
** W' -> Helligkeit<br />
** U' -> Rot-Grün Bundheit<br />
** V' -> Gelb-Blau Bundheit<br />
** Ergebnis<br />
*** Wesentlich besseres Darstellung der Empfindung (Faktor 10 gegenüber dem XYZ-System)<br />
* verbesserte Lösung<br />
** verwenden einer nicht linearen Abbildung (Auge wird mit berücksichtigt)<br />
<br />
== L*a*b* oder CIELAB-Raum ==<br />
* Gegenfarbmodell<br />
* empfindungsmäßig gleichabständiger Raum<br />
* Grundsätzlich zur Angabe von Farbabweichungen verwendet<br />
** Geeignet zur Bewertung von Druckern, Monitoren und Abweichungen von Nachfärbungen<br />
* als Farbdifferenzmaß wird der euklidische Abstand benutzt (<1 nicht mehr Wahrnehmbar)<br />
<br />
== L*u*v* oder CIELUV ==<br />
* für additive Mischung vorgesehen<br />
* wie der CIELAB- Raum ein empfindungsmäßiger gleichabständiger Raum<br />
<br />
== YCbCr - Crominanzwertsystem ==<br />
* Entwickelt damit Farbfernsehen und S/W-Fernsehen Parallel betrieben werden konnten<br />
* Crominanzwerte<br />
** sind von Leuchtdichte befreite Werte<br />
** verschwinden für alle unbunten Farben<br />
** Cr= R-Y, Cg = G-Y, Cb = B-Y<br />
** Das System aus CrCbCg und Y ist überbestimmt => Es reicht die Übetragung von Cr , Cb und Y<br />
* Da das Auge auf Helligkeitsunterschiede empfindlicher reagiert als auf Farbunterschiede können die Crominanzwerte mit geringerer Auflösung übertragen werden<br />
<br />
== ΘSY - System ==<br />
* Der Bunttonwinkel Θ berechnet sich aus dem Verhältnis der Crominanzwerte Cb und Cr<br />
* Die Sättigung S ist der Betrag des Vektors CrCb<br />
<br />
== HSI - Farbraum ==<br />
* Intensität: <math> I= \frac{R+G+B}{3} </math><br />
* Sättigung: <math> S = 1 - 3 \cdot min (r,g,b) </math><br />
* Hue: <math> H= \left\{ \begin{matrix}\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B\le G \\ 2\pi -\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B>G \end{matrix}\right . </math><br />
* Raum ist nicht gleichmäßig gefüllt<br />
* bei kleinen Intensitäten I in Buntton und Sättigung Instabil<br />
* Es kann bei Farbmanipulationen dazu führen das es keine Entsprechungen im RGB gibt<br />
** Lösungen:<br />
*** Dachförmige Begrenzung des HSI Raums -> sehr Aufwendig<br />
*** Normieren der Intensitäten -> Bild kann ins dunkle verschoben werden<br />
*** Maximalwert setzen -> Falsche Farbwerte (werden ins unbunte verschoben)<br />
*** proportionales skalieren bis Farbe im RGB-Würfel liegt<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
<br />
== HSL - Farbraum ==<br />
* Gern für Computergrafik verwendet<br />
* einfache Beziehungen<br />
* Die Verwendeten Biegriffe H,S,L entsprechen nicht der Bedeutung in der Farblehre und Form des Raumes<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
* Buntton ist extrem instabil bei kleinen Sättigungen<br />
* Form des Raumes ist unpraktisch<br />
<br />
= Farbmessung (GF 1 - 11) =<br />
<br />
* Farbmessung = Ermittlung der drei zu einer Farbvalenz gehörigen Farbmaßzahlen<br />
* 3 Messmethoden: <br />
** Vergleichsmethode oder Gleichheitsverfahren<br />
** Spektralverfahren<br />
** Dreibereichsverfahren<br />
<br />
== Gleichheitsverfahren ==<br />
<br />
* Vergleiche:<br />
** Vorlage mit additivem Gemisch<br />
** Vorlage mit Farbmusterkarten (DIN-Karten)<br />
* unverzichtbar bei physiologischen Untersuchungen<br />
* aufwendig und bei kleinen Probandengruppen ungenau<br />
* d.h. für technische Messungen ohne Bedeutung<br />
<br />
'''Messbedingungen nach DIN:'''<br />
* helladaptiertes und blendfreies Sehen<br />
* unbunter Messraum<br />
* neutrale Gesichtsfeldumgebung mit gleicher oder etwas kleinerer Leuchtdichte als im Messfeld<br />
* gut ausgeruhtes und neutral gestimmtes Auge<br />
* farbnormalsichtiger Beobachter<br />
<br />
== Spektralverfahren ==<br />
<br />
* zu messende Farbvalenz = Summe spektraler Farbvalenzen<br />
* greift auf gemessene Normspektralwertkurven zurück<br />
<br />
# '''spektrale Messung zur Ermittlung der Farbreizfunktion <math>\varphi (\lambda) </math>'''<br />
#* Selbststrahler: direkte Messung der Strahlungsfunktion <math>\rightarrow \varphi (\lambda)= S (\lambda)</math><br />
#* remittierende Vorlage: Remissionsfunktion der Vorlage messen, d.h. Strahlungsfunktion S ist vorher zu bestimmen und aus <math>\varphi (\lambda)</math> heraus zu rechnen <math>\rightarrow \varphi (\lambda)= \beta (\lambda) \cdot S (\lambda)</math><br />
# '''farbvalenzmetrische Auswertung'''<br />
#* wenn <math>\beta (\lambda)</math> ermittelt wurde, kann jede beliebige (tabellierte) Lichtquelle <math>S^{\ast} (\lambda)</math>eingesetzt werden<br />
#: <math><br />
\begin{bmatrix}<br />
X\\Y\\Z<br />
\end{bmatrix}<br />
= k \cdot<br />
\begin{bmatrix}<br />
\int \bar{x} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{y} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{z} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda<br />
\end{bmatrix}<br />
</math><br />
#* Normierungskonstante k:<br />
#** Selbststrahler: nur Farbwertanteile gefragt, d.h. k ist beliebig<br />
#** Körperfarben: Y für mattweißen Körper = 100, d.h. <math>k=\frac{100}{\int {S(\lambda) \cdot \bar{y}(\lambda) d \lambda}}</math><br />
<br />
'''Messgeometrien:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bildergalerie (45°,8°,Transmission) </span><br />
<br />
* ''45°-Geometrie'': Beleuchtung unter 45° schließt Glanzeinfluss aus <math>\rightarrow</math> Sensor blickt senkrecht auf Probe<br />
* ''8°-Geometrie'': Beleuchtung diffus über Ulbricht-Kugel <math>\rightarrow</math> Sensor blickt unter 8° auf Probe; Messung mit/ohne Glanz möglich<br />
* ''Transmissionsgeometrie'': Probe wird durchleuchtet<br />
<br />
== Dreibereichsverfahren ==<br />
* die drei Farbwerte werden direkt photometrisch gemessen<br />
* Filter und spektrale Empfindlichkeite der Strahlungsempfänger müssen an die spektrale Bewertungsfunktion angepasst sein<br />
* '''Luther-Bedingung:''' <math> \tau_x(\lambda) = \frac{c_x \cdot x(\lambda)}{s_1(\lambda)}</math><br />
** <math> \tau_x(\lambda) </math> ... Filtertransmission<br />
** <math>s_1(\lambda)</math> ... Sensorempfindlichkeit (hier im ersten Kanal)<br />
** <math>c_x</math> ... Gerätekonstante<br />
** Für den Y und Z Kanal ist die Formel analog<br />
* Der notwendige Filter kann gut durch ein Set von Schmalbandigen Filtern realisiert werden<br />
<br />
== Spektralmaskenverfahren ==<br />
<br />
* spezielles Dreibereichsverfahren<br />
* Lichtzerlegung erfolgt mit einem Prisma<br />
* Das zerlegte Lich beleuchtet eine Maske (Papier, Plaste, Metal .... ne richtige echte Maske)<br />
* Messen der spektralen Verteilung (CCD-Zeile)<br />
* Ähnlich dem Spektralverfahren nur das das spektrum bereits im analogen entsprechend gewichtet wird<br />
<br />
== Metamerie ==<br />
* zwei Farbproben die bei einer bestimmten Beleuchtung gleich aussehen können bei einer anderen Beleuchtung ganz anderst aussehen<br />
* Der Metermarie-Index beschreibt diesen durch Beleuchtungswechsel entstehenden Farbwechsel<br />
* KEIN Maß für die Farbkonstantheit sondern für den Unterschied von zwei Proben<br />
* Berechnung erfolgt im L*a*b* Raum <br> <math> M_T = \sqrt {(L_{1T}-L_{2T}+L_{2B}-L_{1B})^2 +(a_{1T}-a_{2T}+a_{2B}-a_{1B})^2+(b_{1T}-b_{2T}+b_{2B}-b_{1B})^2 } </math><br />
** T ... Testlicht<br />
** B ... Bezugslicht<br />
** 1,2 ... Probennummern<br />
<br />
= Klassifikation von Messaufgaben (GF 82 - 86) =<br />
<br />
# Messung von objektiven Eigenschaften, die sich in der Veränderung spektraler Charakteristika niederschlagen<br />
#* vordergründig ist Zusammenhang zwischen Veränderungen in den physikalischen Eigenschaften von Interesse (z.B. Waferinspektion)<br />
#* Zusammenhang sollte eindeutig und von hinreichender Empfindlichkeit sein<br />
#* Wahrnehmung unterschiedlicher Farben eher Nebeneffekt<br />
# Überwachung der Stabilität von farblichen Erscheinungen<br />
#* ist bei einer oder mehreren Beleuchtungen zu überwachen<br />
#* absolute Farbmessung nicht nötig; "Anlernen" auf Farben genügt<br />
#* Abstände im Farbempfinden müssen sich in gleicher Weise in Veränderungen der Sensorsignale wiederspiegeln<br />
# absolute Farbmessung<br />
#* d.h. Ermittlung der korrekten Farbvalenz unter beliebigen Messbedingungen<br />
#* Spektralwertkurven müssen realisiert werden<br />
# Messung des spektralen Remissions- und/oder Transmissionsverhaltens von Materialien<br />
#* ausschließlich spektrale Messverfahren<br />
#* Messung der Strahlungsfunktion und der remittierten Leistungsdichte<br />
#* Berechnung der Farbvalenz bei beliebiger Beleuchtung und des Metamerie-Index<br />
<br />
'''steigende Ansprüche mit steigender Nummerierung'''<br />
<br />
= Einfache Farbkalibrierung (GF 16 - 41) =<br />
* Farben sollen möglichst exakt Wiedergegeben werden<br />
<br />
== Ausgleich von Beleuchtungseinflüssen ==<br />
* Körperfarben werden durch ihre Remmision bestimmt <math> \beta </math><br />
* Bei unterschiedlicher Beleuchtung sehen Farben unterschiedlich aus aber das Auge kann sich an die Beleuchtung adaptieren<br />
** Funktioniert bei Fotos aber nicht -> Beleuchtungsausgleich ist wichtig<br />
** Bei Farbvergleich noch viel mehr<br />
** Wird realisiert durch Weißabgleich (auf integraler Farbebene nicht möglich )<br />
* Direkte Vermessung der spektralen Eingenschaften der Kamera nicht möglich (Da Werte in Kamera bereits verrechnet werden um z.B. die negativen Anteile der Spektralkurven zu realisieren)<br />
** sehr Aufwendig (Kamera auseinanderbasteln um an die echten werte zu kommen + das durchgehen durch das Spektrum in kleinen Schritten)<br />
* Daher Verwendung von Testfarben<br />
** Führt auf Lösung eines linearen Gleichungssystem<br />
** Für menschliches empfinden -> Optimieren im CIELAB-Raum<br />
* Vorsicht bei nichtlinearen Funktionen zur Farbkalibrierung -> Kann bei zu wenig Testfarben zu total falschen Ergebnissen führen !!<br />
<br />
= Color Management (F CM 1 - 20) =<br />
* verschiedene Geräte können verschiedenen Farben darstellen<br />
* verschiedene Geräte verwenden andere Grundfarben zum mischen<br />
* Mit Hilfe von Profilen (Tabellierung der Farbwerteumrechnungen) wird eine Konvertierung der Farben vom Geräteraum in den CIELab Raum bzw umgekehrt durchgeführt<br />
* in den Profilen wird auch vermerkt welche Farben darstellbar sind und welche nicht<br />
* Somit kann man eine "Druckvorschau" auch auf einem Monitor erreichen (natürlich nur für Farben die auf beiden Geräten dargestellt werden können)<br />
** Jedes Mapping der Farben (Gamut-Mapping stellt somit einen Kompromiss dar)<br />
**# Perceptual (Die Farbbeziehungen untereinander werden erhalten) Komprimierung des Gamuts bis er in den zur Darstellung verwendeten passt<br />
**# Colometrisch -> Exakte Reproduktion aller in beiden Gamuts darstellbaren Farben<br />
**## relativ -> weiß wird auf weiß abgebildet und alle anderen Farben relativ dazu<br />
**## absoult farbmetrisch<br />
**# Saturation, alle Farben außerhalb des Zielgamuts werden zugunsten der Sättiung verändert<br />
* Kalibrierung -> Versetzen des Gerätes in einen definierten, reproduzierbaren Zustand<br />
* Charakterisierung -> Modellierung eines Gerätes welches sich ein einem stabilen definierten Zustand befindet<br />
<br />
= Kameras (GF_Ka 1 - 12) =<br />
<br />
'''Einsatzfelder:'''<br />
* ortsaufgelöste Messung von Farbe<br />
* Aufnahme und Wiedergabe von True-Color Bildern<br />
* Aufnahme farbiger oder mehrkanaliger Bilder für die Verarbeitung/Analyse (Qualitätssicherung)<br />
* Photogrammetrische Anwendungen (Lösung des Korrespondenzproblems)<br />
* Radiometrische Anwendungen (Messen im Spektralbereich)<br />
<br />
'''Dreibereichsmessung:'''<br />
* setzt die Trennung von drei sich überlappenden Spektralbereichen voraus, die dann wellenlängenabhängig zu bewerten und zu integrieren sind<br />
<br />
== Dreichip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* optische Kanaltrennung und Bewertung<br />
* beste Bildqualität, da hohe Auflösung in allen drei Kanälen<br />
* keinen örtlichen Versatz der Pixel in den drei Farbauszügen<br />
* Filter einfacher und präziser zu realisieren<br />
* befinden sich z.B. als dichroitische Spiegel auf den Strahteilerprismen<br />
<br />
<span style="color:#ee0000;"> \\ Hot-Mirror-, Cold-Mirror-Korrektur????</span><br />
<br />
== Einchip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: doppelte Anzahl grüner Pixel wegen Schärfe, MTF des Auges </span><br />
<br />
* örtliche Kanaltrennung und Bewertung<br />
* Streifen- oder Mosaikfilterstrukturen auf den einzelnen Pixeln zur örtlichen Signaltrennung<br />
* 3 oder 4 unterschiedliche spektrale Auszuüge zur Erzeugung der Farbinformation<br />
* Matrix selbst kann Interline- oder Frame-Transfer-Matrix sein<br />
* kostengünstiger und kleiner als Dreichip-Kameras<br />
* Probleme:<br />
** Farbvalenzen aus örtlich versetzten Auszügen (z.B. Farbsäume an Kanten)<br />
** nicht korrigierbare Fehler aus Nichtlinearitäten und Dunkelsignalen bei der Bildung von Mischsignalen<br />
<br />
'''generelle Anforderungen an die Signalverarbeitung:'''<br />
<br />
* primäre Kamerasignale stellen keine farbmetrische Schnittstelle zur Verfügung, d.h. alle Bewertungsfunktionen sind nicht-negativ (Spektralwertkurven fordern aber negative Wichtungen)<br />
* je nach realisierten Filtern und Genauigkeitsansprüchen <math>\rightarrow</math> lineare Matrizierung (meist Kameraintern) oder komplexere Approximation<br />
* bei hohen Genauigkeitsansprüchen <math>\rightarrow</math> Umgehung der Kamerainternen Matrizierung, weil Verstärkungsfaktoren, Toleranzen, Temperaturdrift, Langzeitstabilität etc. nicht bekannt sind<br />
* insgesamt geringe Nichtlinearitäten der CCD's können in den Ansteuerbereichen der einzelnen Kanäle zu wesentlichen Fehlern führen:<br />
** Farbvalenz ändert sich kontinuirlich mit der Shutterzeit<br />
** Pixelweise DSNU- (Dunkelsignalungleichförmigkeit) und PRNU- (Hellsignalungleichförmigkeit) Korrektur vor Erzeugung der Farbvalenz erforderlich, da sich Festmusterrauschen nicht nur auf Intensität sondern auch auf Farbart auswirkt<br />
** Dunkelsignal verdoppelt sich alle 7K, Gleichanteil wird aber geklemmt<br />
** Lichtquellentyp und Langzeitverhalten wirken sich nicht nur Intensität sondern auch auf Farbtemperatur aus<br />
<br />
'''4 spektrale Bereiche:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* vorteilhaft zur Erzeugung von Farbdifferenzsignalen für die TV-Kompatibilität<br />
* im Field-Integration-Mode werden Mischsignale gebildet, die die erforderliche Signalkorrektur für hohe Ansprüche behindern<br />
* Nichtlinearität der Ausgangsverstärker wirkt sich auf Korrektur der primären Mischsignale aus<br />
<br />
== Sequentielle Einchip-Kamera ==<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* zeitliche Kanaltrennung und Bewertung<br />
* relativ genaue Approximation der Spektralwertkurven möglich<br />
<br />
== Elektrisch steuerbare Filter ==<br />
<br />
* über die Wellenlängenabhängigkeit der Eindringtiefe der Photonen und die Steuerbarkeit der Tiefe der Potentialmulden der sensoren lassen sich steuerbare spektrale Empfindlichkeiten erzeugen<br />
<br />
= Verarbeitung von Farbbildern (1 - 31) =<br />
* Das unabhängige verarbeiten der Farbkanäle eines Farbbildes führt zu Nebeneffekten wie Farbsäume<br />
* Die höhere Vielfalt des mehrdimensionalen Raumes von Farbbildern kann Vorteilhaft genutzt werden für Pixelklassifikation, Segmentierung <br />
* Abstände, Mittlere Werte und örtliche Veränderungen sind in empfindungsmäßig gleichabständigen Räumen zu definieren und zu bewerden<br />
<br />
== Histogramme und Statistiken für Farbbilder ==<br />
* Farbbilder liefern dreidimensionale Häufigkeitsverteilungen im Farbraum → können als Approximation der entsprechenden 3D-Dichten verwendet werden<br />
* statistische Zusammenhänge zwischen den Kanälen werden in mehrdimensionalen Dichten betrachtet<br />
** Für Handauswertung meist nur 2D-Dichten, wegen der Übersicht<br />
** Für maschinelle Auswertung können diese dichten auch dreidimensional werden<br />
** für die parametrische Darstellung der Cluster werden meist multivariante Gaußverteilungen eingesetzt<br />
*** Einr Gaußverteilung ist für die Beschreibung eines Bildes mit mehreren Objekten nicht geeignet<br />
*** Die Kovarianzmatrix einer solchen "Approximation" kann aber gut zur Einschätzung der Streuung und der Mittelwerte in dem Bild eingesetzt werden<br />
<br />
=== Histogramm - Modifikationen ===<br />
* Contrast Streching, Polygonal Image Scaling, Histogram-Equalisation Siehe [[Grundlagen der Bildverarbeitung und Mustererkennung#homogene Punktoperationen|Grundlagen der Bildverarbeitung]]<br />
* Manipulation kann in verschiedenen Farbräumen ausgeführt werden (RGB,HSI,...)<br />
** In nicht empfindungsmäßig gleichabständigen Räumen muss die Transformation nicht unbedingt zum Ziel führen<br />
==== Manipulation im Farbraum RGB ====<br />
* ist der Farbraum in dem die Daten häufig vorliegen<br />
* Wirkung kann auf Grund der starken korrelation der RGB Werte bei geringen Sättigungen ausbleiben<br />
* Farbverfälschung wenn einzelne Kompontenen unabhänig von einander behandelt werden<br />
* hohes apriori-Wissen notwendig<br />
* wenn Falschfarbdarstellung gewünscht ist kann dies das mittel der Wahl sein<br />
<br />
==== Manipulationen im Farbraum HSI ====<br />
* unproblematisch in Bezug auf Farbverfälschungen<br />
* Zielsetzungen können sich einfacher beschreiben lassen (ähnelt der Beschreibung von Farbe durch den Menschen)<br />
* unabhängige Komponente (Intensität)<br />
* Kontrastverbesserung durch Sättigungsausgleich ohne Farbveränderung möglich<br />
* Stabilitätsprobleme nahe den unbunten Farben<br />
# '''Ausgleich des Intensitätshistogramms'''<br />
#* Werte möglich die keine entsprechung mehr im RGB haben → müssen geeignet herruntergerechnet werden<br />
#* bei kleinen Intensitäten sind die Bunttöne instabil → ausschließen von Veränderungen<br />
# '''Sättigungsausgleich'''<br />
#* Modifikation der Sättigung unter Beibehaltung des Bunttones<br />
#* Bei kleinen Sättigungen und kleinen Intensitäten ist der Buntton instabil → Ausschließen<br />
#* Histogramm über alle Bunttöne ist häufig verschmiert → besser Histogramm über Buntton Segmente<br />
# '''Bunttonausgleich'''<br />
#* Ziel sind Farbfalschbilder um Objekte besser unterscheiden zu können<br />
#* bei zu großen Buntton Änderungen wird die Interpretierbarkeit nur bei homogenen Flächen verbessert, meist wird sie eher verschlechtert<br />
#* Unsicherheit des Bunttons → bei geringen Sättigungen und Intensitäten ist der Buntton auszuschließen<br />
<br />
== segmentgesteuerte Farbvalenztransformationen ==<br />
* Globale Statistiken werden häufig durch nicht interressante Objekte dominiert<br />
* Ausweg ist das Betrachten von Ausschnitten und anwenden der Transformationen auf die Ausschnitte<br />
* erfordert zu erst das Segmentieren des Bildes<br />
<br />
= Referenzfreie Farbadaption auf Basis des 3D-Histogramms (HuS 32 - 39 ) =<br />
* unter bestimmten umständen kann auf eine Kalibrierung der Kamera mittels Referenzfarben verzichtet werden<br />
* Zur Korrektur soll die parametrische Approximation der 3D-Histogramme durch multivariante Gaußverteilungen genutzt werden<br />
== Vorraussetzungen für die Anwendbarkeit ==<br />
* Strukturierte Szene mit mehreren ntürlichen Objekten, die gleichmäßig über den Bunttonwinkel verteilt sind und durchschnittlichen Sättigungsgrad aufweisen<br />
* Langgestreckter SW-Prozess im Vergleich zum Rot-Grün und Blau-Gelb Prozess<br />
<br />
== Vorgehensweise ==<br />
* Korregieren von "vermutlichen" Abweichungen des Bildes in der Unbuntheitsachse<br />
* Dazu Ermitteln der Hauptachsen mit PCA<br />
* Drehen der Hauptachse in den SW-Prozess<br />
* Rücktransformation und Darstellung<br />
<br />
= Histogrammbasiertes Farbmatching(1 - 15) =<br />
* Histogramme sind im 2D Bild invariant gegenüber Rotation, Translation und Maßstab (wenn die Angaben relativ erfolgen !)<br />
* Histogramme sind auch relativ stabil gegenüber moderaten Verdeckungen und 3D-Rotation<br />
* Grobe Quantisierung der Histogramme um Fehlertoleranz zu erhöhen<br />
* Damit können Histogramme zur Objekterkennung eingesetzt werden → Bezeichnet als Color Indexing<br />
<br />
== uniformes Binning ==<br />
* einteilen der Farben in ein gleichverteiltes Histogramm<br />
* Suche in einem Bild den Ausschnitt welcher eine minimale Distanz zum Referenzbild hat<br />
* Als Abstandsmaß verwendet werden die Histogramme genutzt<br />
** Summe der Quadratischen Differenzen (Histogramme als Vektoren betrachtet und dann den euklidischen Abstand berechnet ohne Wurzel)<br />
** Earth Movers Distance (Berechnen was sich wohinverteilt haben könnte ... erfordert die Lösung des Transportproblems)<br />
* einfach aber die Bins ändern sich Sprunghaft, vor allem dann wenn Farben knapp an den willkürlichen Bingrenzen liegen<br />
<br />
== Unscharfe Chroma-Orts-Histogramme ==<br />
* Nachteile des uniformen Binning sollen überwunden werden<br />
* Alle Pixel bekommen eine unscharfe Klassenzugehörigkeit (Binnzugehörigkeit) je nach Abstand zum entsprechenden Binnmittelpunkt (wie bei [[Softcomputing|Fuzzy-C-Means]])<br />
** Ein Parameter ermöglicht dabei die Verunschärfung einzustellen (von total unscharf bis zum festen Binning)<br />
* Auch der absolute Ort der Segmente (aus denen die Histogramme erstellt werden) soll mit verwendet werden<br />
** Dazu wird das Bild in entsprechende Bereiche geteilt (8x8,16x16,...)<br />
** Alle Blöcke werden durchnnummeriert<br />
** Auch hier kommt es zu harten Umbrüchen wenn Pixel knapp an den Grenzen liegen → auch hier verunschärfen<br />
** Welche Indizees haben die Nachbarn? (Nachbarschaft in den Indizees der Blöcke heißt nicht gleich 2D-Nachbarschaft)<br />
<br />
== Cluster mittels Graphenansatz ==<br />
* Ziel ist es:<br />
** Sprunghafte Änderung der Binns zu verhindern<br />
** wenige Merkmale zu verwenden<br />
** Eng beieinander liegende Maxima trotzdem unterscheiden zu können<br />
* Verwendete Bilddaten:<br />
** Farbwinkelhistogramm, wenn Sättigung der Farben ausreichend ist<br />
** Intensitätsdiagramm, wenn Sättigung der Farben zu gering wird<br />
* Vorgehen:<br />
** Jeder Wert im Histogramm zeigt auf den Größten in seiner Nachbarschaft<br />
** Das Maximum zeigt auf sich selbst → Wird Merkmal<br />
** Weiteres Merkmal ist die Fläche die zum Maximum gehört (Nachbarn die direkt bzw. indirekt auf das entsprechende Maximum zeigen)<br />
* Match:<br />
** Finde ein Tupelpaar (Maxima in Referenzhistogram und Suchhistogram mit dem geringsten Abstand)<br />
** Ziehe gemeinsame Fläche von jedem Tupel des Paares ab<br />
** summiere gemeinsame Fläche (?)<br />
** Wiederhole bis sich keine Tupelpaare mehr bilden lassen<br />
** beziehe die laufende Summe auf das Maximum der Summe der ursprünglichen Flächen<br />
<br />
= Störunterdrückung (SU 1 - 16) =<br />
* Für nachfolgende Verarbeitungsschritte ist die Störunterdrückung sehr wichtig<br />
* Verschiedene verfahren der Rauschunterdrückung sind in [[Grundlagen der Bildverarbeitung und Mustererkennung#Lokale Operatoren zur Bildverbesserung (LOa 1 - 44) |BV]] eingeführt worden<br />
<br />
== Störunterdrückung durch Faltungsfilter ==<br />
* Anwendung wird einfach vektoriell durchgeführt (als würde man drei unabhängige Bilder gleichzeitig Filtern wollen)<br />
* es entstehen neue Farbtöne an den Übergängen zwischen Farben<br />
* im HSI Farbraum ist eine getrennte Betrachtung der Farbe und der Sättigung/Intensität möglich<br />
* Buntton ist zyklisch → muss bei der Mittelung beachtet werden<br />
* in der Farbe kann stärker gemittelt werden als in der Helligkeit (Auge nimmt Farbveränderungen schlechter wahr)<br />
* Komplexe Zahlen bieten sich hier als Rechenmittel an<br />
<br />
== adaptive gewichtete Mittelung ==<br />
* detailerhaltende Fähigkeiten von Filtern wegen der Farbsäume besonders von Interesse<br />
* Abstände verkomplizieren sich im Vergleich zu Grauwertbildern (Vektorabstandsmaße, Winkeldifferenzen,...) <br />
* Vorgehen nach dem Berechnen des Abstandes dann wieder Analog zur Grauwertfilterung<br />
<br />
== Medianfilterung ==<br />
* Problem bei der Übertragung des Rangordnungsgedankens auf Vektoren<br />
** Komponentenweises Vorgehen ist nicht geeignet (absolute Farbverfälschungen möglich)<br />
** Suche des besten Vertreters des SETS (wenn der verwendete Media im SET ist werden keine zu falschen Farben gewählt/gesetzt)<br />
*** kleinste Abstandssumme zu allen anderen Pixeln<br />
<br />
== Kombination von Averaging und Medianfilterung ==<br />
* Medianfilter ist gut für Impulsrauschen, schlecht bei Gauß hier ist Average gut<br />
* Bei den Filtern gibt es keinen unterschied zu den Grauwertbildern (unterschied besteht nur in der Realisierung der verwendeten Media/Average Filter nicht in ihrere Kombination)<br />
<br />
== Vektor-Richtungs-Filter ==<br />
* '''Basic Vecotr Directional Filter'''<br />
** Winkel zwischen Farbvalenzen als Distanzmaß<br />
** Ergebnis ist die Farbvalenz mit der kleinsten Winkeldifferenzsumme zu allen Valenzen des Fensters<br />
** Achromatische Rauschkomponenten werden nicht beseitigt<br />
* '''Generalized Vector Directional Filter '''<br />
** Suche nach den besten Vektoren aus Sicht der Richtung<br />
** Medianfilterung der Beträge der Vektoren<br />
* '''Directional Distance Filter'''<br />
** Vermeiden der Ineffizenz des GVDF Filters durch ein gemischtes Distanzmaß (Betrag und Winkel gleichzeitig)<br />
<br />
= Kantendetektion in Farbbildern (1 - 21) =<br />
* Wichtig für Segmentierung, Bildanalyse und Bildverstehen<br />
* [[Grundlagen der Bildverarbeitung und Mustererkennung#Kantendetektion (LK 1 - 38)| Kantenfilter]] bereits aus BV bekannt<br />
# '''Vektrogradient'''<br />
#* Berechnen der Jacobi-Matrix<br />
#* Wurzel aus dem größten Eigenwert ist der Vektorgradient<br />
#* Extrem Rechenaufwendig<br />
# '''Mittelwert der Richtungsableitungen'''<br />
#* Entspricht dem Gradienten im Intensitätsbild<br />
#* Zwei engegengesetzte Gradienten in unterschiedlichen Farben können sich gegenseitig aufheben → der Gradient der dritten Farbe dominiert egal wie klein er ist<br />
# '''Maximaler Gradient'''<br />
#* Suche nach dem Gradienten mit dem größten Betrag<br />
#* Korrelation der einzelnen Gradienten ist nicht von Bedeutung<br />
<br />
= Farbpixelklassifikation (Farbpixelklassifikation 1 - 21) =<br />
<br />
= Clusterverfahren (Farbpixelklassifikation 19 - 45) =<br />
<br />
= Segmentierung (Seg 1 - 8) =<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Grundlagen_der_Farbbildverarbeitung&diff=6984Grundlagen der Farbbildverarbeitung2009-03-16T09:58:19Z<p>DarkGhost: /* Störunterdrückung (SU 1 - 16) */</p>
<hr />
<div>Link zum [http://www.zbs-ilmenau.de/intern/vip-toolkit/index.php Vip toolkit]<br />
= Einführung (GF_a 8 - 47) =<br />
<br />
== Geschichtliches zur Farbe ==<br />
<br />
=== Newton ===<br />
<br />
* 1672: New Theory about Light and Colours<br />
** Sonnenlicht = Mischung einzelner Farben<br />
** Spektralfarben sind objektive Eigenschaft des Lichtes<br />
<br />
[...]<br />
<br />
=== Goethe ===<br />
<br />
[...]<br />
<br />
== Begriff der Farbe ==<br />
<br />
* '''Farbe im engeren Sinn, stellt eine spezielle menschliche Sinneswahrnehmung dar'''<br />
* <math>\Phi_i = \int_{\Delta \lambda_i} \varphi_{\lambda} (\lambda) d \lambda</math><br />
* Leistungsdichte <math>\phi (\lambda)</math> stellt dagegen den Farbreiz dar, der die Farbempfindung hervorruft<br />
* Vektoren <math>\underline \Phi</math> sind je nach Dimension mehr oder minder genaue Approximationen des Farbreizes<br />
<br />
* Orientierung am menschlichen visuellen System und die Betrachtung psychologischer und physiologischer Grundlagen sind von Interesse:<br />
** zur richtigen Bewertung der Schwierigkeiten und Herausforderungen bei der Schaffung technischer Lösungen<br />
** zur Anpassung technischer Lösungen der Bildwiedergabe an das visuelle System<br />
** zur Nutzung optimaler Naturprinzipien für technische Lösungen<br />
** weil technische Systeme im allgemeinen auf dem inneren Modell des Menschen von der Welt beruhen und dieses Modell in hohem Maße durch den visuellen Kanal des Menschen beeinflusst ist<br />
** weil optoelektronische Sensoren, Bildverarbeitung und Bildanalyse wichtige Schnittstellen zwischen Mensch und Maschine darstellen<br />
**weil viele Objekteigenschaften durch visuelle Eindrücke beschrieben werden<br />
<br />
* menschliches Auge kann ca. 100 Graustufen / ca. 300 000 Farben unterscheiden<br />
<br />
* Drei grundsätzliche Anwendungen von Farbinformation:<br />
** Pseudokolorierung<br />
** Falschfarbendarstellung<br />
** Echtfarbdarstellung (True Color) <math>\rarr</math> hier Schwerpunkt<br />
<br />
== Farbtäuschung ==<br />
<br />
* Zuordnung zwischen Physik und Wahrnehmung nur eindeutig wenn bunte Dinge isoliert betrachtet werden<br />
* Werden bunte Objekte in bunte Umgebungen eingebettet/bewegt, dann können abweichende Farbwahrnehmungen auftreten, so genannte Farbtäuschungen<br />
* es existieren unterschiedliche Arten solcher Täuschungen:<br />
** ''Farbinduktion oder simultaner Farbkontrast'' (Farbe wird durch ihre Umgebung modifiziert)<br />
** ''Farbkonflikt'' (es konkurrieren verschiedene Sehinformationen miteinander)<br />
** ''Subjektive Farben'' (es werden bunte Farbtöne wahrgenommen, die nicht vorliegen)<br />
<br />
'''Simultaner Farbkontrast:'''<br />
* erstmals 1839 beschrieben<br />
* wo der Effekt entsteht (Auge, Cortex) ist unklar<br />
<br />
'''Farbinduktion:'''<br />
* bei kleinteiligen, sich wiederholenden Strukturen erfolgt Angleichung<br />
* kann zur Rauschunterdrückung oder zur Unterdrückung von Feintexturen zugunsten der Erkennung größerer Objekte wichtig sein<br />
<br />
'''Farbkonflikt:'''<br />
* Formen und Strukturen konkurrieren mit Farben ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf White'sche Illusion])<br />
<br />
'''Subjektive Farben:'''<br />
* durch Bewegung ist es möglich Farben zu erzeugen die ursprünglich nicht vorhanden waren ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf Drehwurm in Farbe])<br />
<br />
== Farbwahrnehmung beim Menschen ==<br />
<br />
[...]<br />
<br />
=== Rezeptive Wahrnehmung ===<br />
* 1807 stellte Young die Hypothese auf das Farbsehen auf drei Arten von Sinneszellen beruht (rout,grün,blau)<br />
* erst 1964 konnten dies bewiesen werden, durch die Messung der Absorptionsspektren<br />
*[[Datei:Pdt-kurven.svg]]<br />
<br />
=== Postrezeptive Wahrnehmung ===<br />
* Mit dem 3 Farbenmodell konnten einige psychologische Erscheinungen nicht erklärt werden<br />
** Es werden 4 Farben als besonderst "rein" empfunden (Rto, Geln,Grün, Blau)<br />
** Unbunte Farben werden werden als das fehlen von Farben wahrgenommen<br />
** Schwarz schein gleichberechtigt zu Weiß<br />
** keine wahrgenommene Farbe erscheint zugleich rötlich und grün<br />
* das führte zur Gegenfarbentheorie die anfangs nur Psychologisch begründet war 1958 aber physiologisch Nachgewiesen werden konnte<br />
** Rot - Grün<br />
** Gelb - Blau<br />
** Schwarz - Weiß<br />
* → CIELab-Farbraum<br />
<br />
=== Kortikale Kodierung ===<br />
* Weder die 3 Farbentheorie noch die Gegenfarbentheorie beschreiben die bewusste Wahrnehmung des Menschen<br />
* Deshalb erweitertes Modell<br />
** Farbton / Buntton beschreibt die als besonderst rein empfundenen Spektralfarben<br />
** Sättigung beschreibt wie stark eine Farbe verblasst ist<br />
** Helligkeit beschreibt, wie hell oder dunkel eine Farbe ist<br />
* Wo/Wie genau die neuronale Verarbeitung erfolgt, ist noch nicht sicher belegt<br />
<br />
== Die Ordnung in der Welt der Farben ==<br />
* Newton kannte die Wellenlänge noch nicht → er ordnete die Farben nach dem Regenbogen<br />
* Goethe verwendete das Gegenfarbenmodell<br />
* Munsell schlug 1905 ein Farbordnungssystem vor bei dem alle Abstände zwischen den Farben Empfindungsmäßig gleich sind<br />
** führt zu einem geometrisch nicht regelmäßigen Körper<br />
<br />
== Das Modell der Farbe ==<br />
* '''Definition'''<br />
** Farbe ist diejenige Gesichtsempfindung eines dem Auge strukturlos erscheinenden Teils eines Gesichtsfeldes durch die sich diser Teil bei einäugiger Betrachtung mit unbewegtem Auge von einem gleichzeitig gesehenen ebenfalls strukturlos angrenzendem Bezirk allein unterscheidet (unbunte Farben: Schwarz, Weiß und Graustufen, bunte Farben: Helligkeit; Buntheit setzt sich aus Buntton und Farbsättigung zusammen)<br />
** Farbe ist durch Helligkeit, Buntton, Sättigung eindeutig bestimmt → 3D Modell<br />
*** drei linear unabhängige Größen<br />
*** Additive Mischung zur Reproduktion von Farbe (aus Rot, Grün, Blau)<br />
*** drei linearunabhängige Größen spannen immer einen Raum auf → Rot,Grün und Blau werden die Achsen dieses Raumes<br />
<br />
=== Farbvalenz ===<br />
* Mit unserem Modell läßt sich jede Farbe als linearkombination unserer drei Basisvektoren aufschreiben<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
** <math> \vec F</math> ... Farbvalenz<br />
** <math> \vec r, \vec g, \vec b </math> ... die drei Basisvektoren die den Raum aufspannen (Rot, Grün und Blau)<br />
** <math> R,G,B, |\vec F| </math> ... die Farbwerte<br />
** <math> \vec r \cdot R, \vec g \cdot G, \vec b \cdot B </math> ... die drei Primärvalenzen<br />
* Ermittelt werden die Farbwerte mit Hilfe der Vergleichsmethode<br />
** Eine Person vergleicht ein Target mit einer Farbe die aus den drei Primärvalenzen gemischt wird<br />
** wenn die Empfindung der beiden Farben gleich ist, dann notieren wir die Werte<br />
* Innere Farbmischung<br />
** das Target wird mit weißen Licht beleuchtet und wir drehen nur an dem Farbmischgerät<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
* Äußere Farbmischung<br />
** Wir beleuchten das Target mit farbigen Lichte<br />
**<math> \vec F+ B \cdot \vec b = R \cdot \vec r + G \cdot \vec g \rightarrow \vec F = R \cdot \vec r + G \cdot \vec g - B \cdot \vec b</math><br />
<br />
=== Farbreizmetrik ===<br />
* Die Farbreizfunktion <math> \varphi_\lambda</math> beschreibt die spektrale Zusammensetzung der Farbempfindungen<br />
*# Selbstleuchtende Objekte<br />
*#* <math> S_\lambda (\lambda)</math> beschreibt die spektrale Verteilung der Quelle<br />
*#* Wahrnehmung: <math> \varphi_\lambda = S_\lambda</math><br />
*# Auflicht Vorlagen<br />
*#* <math>\beta_\lambda(\lambda)</math> beschreibt den spektralen Remisionsgrad der Vorlage<br />
*#* Wahrnehmung: Licht reflektiert von der Vorlage <math> \varphi_\lambda = S_\lambda \cdot \beta_\lambda</math><br />
*# Durchlichtvorlagen<br />
*#* <math>\tau_\lambda(\lambda)</math> spektraler Transmissionsgrad der Vorlage<br />
*#* Wahrnehmung von Licht welches die Vorlage durchdrungen hat <math>\varphi_\lambda= S_\lambda \cdot \tau_\lambda</math><br />
* Damit haben folgende Faktoren Auswirkung auf die Wahrgenommene Farbe<br />
*# Die Beleuchtung des Objektes (Spektrale Zusammensetzung des Lichtes der Lampe)<br />
*# Das Remmisionsverhalten der beleuchteten Oberfläche<br />
*# Die wellenlängenabhängige Empfindlichkeit der drei Zapfen des Auges<br />
* Es besteht die Möglichkeit die pdt Kurven direkt zur Beschreibung des Farbempfindens zu nutzen<br />
* Die Farbwerte könnte man dann wie folgt ermitteln: <math> \left(\begin{matrix}P\\D\\T\end{matrix}\right)=k\int_{380\mathit{nm}}^{780\mathit{nm}}\varphi (\lambda )\cdot \left(\begin{matrix}p(\lambda )\\d(\lambda )\\t(\lambda )\end{matrix}\right)d\lambda </math><br />
* Für die technische Darstellung von Farbe werden allerdings R,G,B werte benötigt<br />
* Die dafür notwendigen Spektralwertkurven können mit Hilfe der Vergleichsmethode ermittelt werden<br />
* Man erhält damit folgende Kurven<br />
[[Datei:SpektralwertfunktionenRGB.jpg]]<br />
* Mit der gleichen Formel wie bei der pdt Kurve lassen sich nun die R,G,B Werte rechnerisch ermitteln<br />
<br />
== Farbanalyse, Zusammenhang mit der Farbwidergabe ==<br />
* Das Kammera - Monitor System soll die Farbe exakt wiedergeben<br />
* Der Monitor verwendet EBU Phosphore für die Farbdarstellung<br />
** haben selbst Spektralwert kurven => keine Monochromatischen Lichter mehr<br />
* Die notwendigen spektralwertkurven die die Kamera realisieren muss um die Bilder auf dem Monitor exakt darzustellen lassen sich mit Hilfe der pdt Kurven herleiten (Über forderung der Gleicheit der Farben)<br />
* Sie besitzen stark negative Anteile => Auch die Filter der Kamera müssten negative Transsmissionsgrade besitzen<br />
** technisch ist das nicht möglich<br />
* es bleibt also nur die Möglichkeit die notwendigen Parameter zur Ansteuerung des Monitors aus positive one-peak Kurven zu berechnen<br />
<br />
== Subtraktive Farbmischung ==<br />
* Die Subtraktive Farbmischung lässt sich auf die Multiplikation der Transmissionsgrade zurückführen (ein Filter lässt 50% rotes licht durch, wenn man zwei dieser Filter hintereinander legt, dann geht nur noch 25% rotes Licht durch die Anordnung (0.5*0.5 = 0.25) )<br />
* wenn <math> \tau_0 </math> die Transmission eines Filters für die normierte Dicke 1 und die normiert Dichte 1 ist dann kann man<br />
** mit dem Lambertschen Absorbtionsgesetzt die Absortption von dickern/düneren Material berechnen <br> <math> \tau = [ \tau_0]^w </math><br />
*** w ... Dicke des Materials im Verhältnis zum norm Material<br />
** mit dem Beerschen Gesetz die Transmission von Meterial mit anderer Dichte berechnen <br><math> \tau = [ \tau_0]^c </math><br />
*** c... Das Verhältnis der neuen zur alten Dichte<br />
** kann man auch kombinieren zu (Lambert-Beersches Gesetz)<br />
** <math> \tau = [ \tau_0]^{c \cdot w} </math><br />
* Da sich die Transmission Multiplikativ zusammensetzt wird auch gerne mit dem logarithmus der Transmission gerechnet (optische Dichte)<br />
**<math> D = - lg \tau = lg \frac{1}{\tau}</math><br />
** Damit vereinfacht sich das Lambert-Beersche gesetz zu: <math> D = c \cdot w \cdot D_0</math><br />
* selbstverständlich sind die Transmission <math>\tau</math> und die optische Dichte D von der Wellenlänge abhänig ... zur Übersichtlichkeit wurde das in den Formeln nur weggelassen<br />
* Bei einem Papierbild kommt zu dem Filter noch die Reflexion an der Farboberfläche und an der Papieroberfläche<br />
** Beachte das Licht was an der erste Schicht wegreflektiert wird kann icht tiefer eindringen. Nur noch <math> (1-\beta)*S </math> dringt an Licht durch den ersten Filter!<br />
*** <math> \beta </math> ... Remmisionsgrad der ersten Farbe<br />
*** <math> S </math> ... Spektrale Verteilung der Lichtquelle<br />
<br />
= Farbmetrische Schnittstellen - Farbräume (GF a 49 - 55) =<br />
<br />
<pre><br />
Unterschiedliche bildgebende Systeme<br />
z.B. Farbkameras<br />
Farbscanner<br />
Spezialkameras<br />
</pre><br />
'''Widerspruch''' <math>\updownarrow</math> Farbmetrische Schnittstelle<br />
<pre><br />
Unterschiedliche Bildwiedergabesysteme<br />
"True-Color-Darstellung"<br />
- unterschiedliche Monitore, Beamer, Drucker etc.<br />
</pre><br />
<br />
== Leuchtdichte (Luminanz) ==<br />
<br />
* Luminanz Y ist die Strahlungsleistung, bewertet mit der spektralen Empfindlichkeitsfunktion des Auges für das Hellempfinden<br />
* Y ist Leistungsproportional, wenn Lichtzusammensetzung (Leistungsdichte <math>\Theta (\lambda))</math> konstant bleibt<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* Leuchtdichte berechnet sich nach dem ''Abneyschen Gesetz'':<br />
: <math> Y = L = k \cdot \underline L^T \cdot \underline F </math><br />
:* <math>\underline L^T - </math> Leuchtdichtebeiwert: gibt an wie groß der Beitrag jedes Farbwertes der Farbvalenz zum Helleindruck ist, abhängig vom gewählten Farbwiedergabesystem<br />
* Leuchtdichte L <math>\ne</math> Intensität I<br />
: <math> I = \frac 1 3 (R+G+B)</math><br />
<br />
* die perzeptuelle Antwort unseres Auges auf die Leuchtdichte wird Helligkeit (Lightness) genannt<br />
: <math><br />
L^{\star} = \begin{cases}<br />
116 \cdot \sqrt [3] {\frac Y {Y_n}} -16, & \text{wenn } \frac Y {Y_n} > 0{,}008856\\<br />
903{,}3 \cdot {\frac Y {Y_n}}, & \text{wenn } \frac Y {Y_n} \le 0{,}008856<br />
\end{cases}<br />
</math><br />
<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: Eine Quelle die nur 18% der Luminanz einer Referenz hat, erscheint uns immer noch halb so hell wie die Referenz </span><br />
<br />
== Gammakorrektur und Luma ==<br />
* '''Gammakorrektur:'''<br />
** Aufgrund der Ansteuerung von CRT Monitoren und der verwendeten Phosphore ergibt sich ungefähr eine quadratische Abhängigkeit der Luminanz vom Videosignal<br />
** Die Luminaz der drein einzelnen Farbkanäle muss den gleichen Verlauf aufweisen. Sie dürfen sich nur in ihren Maximalwerten unterscheiden!<br />
*** Sonst ist es nicht möglich die Helligkeit zu ändern und dabei die Farbe konstant zu halten<br />
** Die Gammakorrektur sorgt dafür das die Farbwiedergabe auf dem Monitor linear verläuft und nicht quadratisch<br />
*** Notwendig damit wir die gleich Wahrnehmung erzielen können als währe das Kamera-Monitor System nicht vorhanden<br />
<br />
*'''Luma:'''<br />
** Luma ist die gewichtete Summe der drei Gammakorregierten Farbwerte R',G',B'<br />
** Damit ist Luma nicht gleich Luminanz<br />
<br />
*'''Brightness'''<br />
** Brightness ist ein Begriff der beschreibt wie stark eine Fläche Licht emmitiert oder sie hell sie erscheint<br />
** Besitzt kein festes Maß und wird daher sehr frei verwendet -> HSL<br />
<br />
== Farbsysteme, Farbräume, reduzierte Farbräume ==<br />
* Die Intensität einer Farbe ist <math> I = \frac{R + G +B}{3} </math><br />
* Wählt man die Intensität konstant mit <math>I=\frac{1}{3}</math> so ergibt sich eine Ebene die den RGB-Farb Würfel Diagonal schneidet und durch die R,G,B Eckpunkte geht<br />
* Jede Farbkoordinate kann auf diese Ebene projeziert werden -> Ermöglicht die Nutzung dieser Ebene als einfache Farbtafel<br />
** Diese Ebene kann dann noch auf die 0RG- Fläche des RGB Würfels projeziert werden ohne das die Ordnung der Farben gestört werden würde -> Der Farbton einer Farbe lässt sich allein durch r und g beschreiben<br />
* in die rg-Ebene können nun alle in RGB - darstellbaren Farben und alles existierenden Farben eingetragen werden<br />
** Danach erkennt man das sich technisch mit dem RGB-System nur ein kleiner Teil der exisiterenden Farben realisieren lässt<br />
<br />
= Das Normvalenz- oder XYZ-System (GF a 76 - 86) =<br />
* Alle Farbwerte sollen durch positive Farbwerte darstellbar sein<br />
** Für Farbmessung von Interesse<br />
** Das XYZ- Dreieck muss den spektralen Kurvenzug voll umschließen<br />
* Eine weitere Forderung ist das die Leuchtdichte als unabhängige Komponete auftreten soll<br />
* Die Fläche des Dreiecks soll so klein wie möglich sein<br />
* Die dadurch berechnbaren Normalvalenzen sind physikalisch nicht erzeugbar -> Die Spektralwertkurven für das System müssen berechnet werden<br />
** Die Berechneten Spektralwertkurven sind stets nichtnegativ -> immer positive Transmissionsgrade und Sensorempfindlichkeiten<br />
[[Bild:NORMXYZ1.JPG]]<br />
* Mit dem XYZ-System kann man nun Farbdreiecke vergleichen und Bewerten<br />
** Abstände, Fehler und Systemeigenschaften sollten aber in einem empfindungsmäßig gleichabständigen Farbraum bewertet werden (u'v'w' und CIELab)<br />
* '''Optimalfarbkörper'''<br />
** Beschreibt die Grenze aller darstellbaren Körperfarben<br />
** Zur Erstellung schneidet man rechteckförmige Stückchen aus dem Spektrum von Idealweißem Licht aus<br />
<br />
== Das UVW-System ==<br />
* Informationsgehalt der Farbe für den Menschen hängt davon ab welche Farbunterschiede er wahrnehmen kann<br />
* Vor allem ist das interessant wenn Bildverarbeitungsprobleme auf der menschlichen Wahrnehmung formuliert sind<br />
* xy-Farbtafel hat starke Unterschiede zwischen örtlichen Abstenden und empfindungsmäßigen Abständen -> ungeeignet<br />
* erste Lösung<br />
** lineare Transformation<br />
** W' -> Helligkeit<br />
** U' -> Rot-Grün Bundheit<br />
** V' -> Gelb-Blau Bundheit<br />
** Ergebnis<br />
*** Wesentlich besseres Darstellung der Empfindung (Faktor 10 gegenüber dem XYZ-System)<br />
* verbesserte Lösung<br />
** verwenden einer nicht linearen Abbildung (Auge wird mit berücksichtigt)<br />
<br />
== L*a*b* oder CIELAB-Raum ==<br />
* Gegenfarbmodell<br />
* empfindungsmäßig gleichabständiger Raum<br />
* Grundsätzlich zur Angabe von Farbabweichungen verwendet<br />
** Geeignet zur Bewertung von Druckern, Monitoren und Abweichungen von Nachfärbungen<br />
* als Farbdifferenzmaß wird der euklidische Abstand benutzt (<1 nicht mehr Wahrnehmbar)<br />
<br />
== L*u*v* oder CIELUV ==<br />
* für additive Mischung vorgesehen<br />
* wie der CIELAB- Raum ein empfindungsmäßiger gleichabständiger Raum<br />
<br />
== YCbCr - Crominanzwertsystem ==<br />
* Entwickelt damit Farbfernsehen und S/W-Fernsehen Parallel betrieben werden konnten<br />
* Crominanzwerte<br />
** sind von Leuchtdichte befreite Werte<br />
** verschwinden für alle unbunten Farben<br />
** Cr= R-Y, Cg = G-Y, Cb = B-Y<br />
** Das System aus CrCbCg und Y ist überbestimmt => Es reicht die Übetragung von Cr , Cb und Y<br />
* Da das Auge auf Helligkeitsunterschiede empfindlicher reagiert als auf Farbunterschiede können die Crominanzwerte mit geringerer Auflösung übertragen werden<br />
<br />
== ΘSY - System ==<br />
* Der Bunttonwinkel Θ berechnet sich aus dem Verhältnis der Crominanzwerte Cb und Cr<br />
* Die Sättigung S ist der Betrag des Vektors CrCb<br />
<br />
== HSI - Farbraum ==<br />
* Intensität: <math> I= \frac{R+G+B}{3} </math><br />
* Sättigung: <math> S = 1 - 3 \cdot min (r,g,b) </math><br />
* Hue: <math> H= \left\{ \begin{matrix}\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B\le G \\ 2\pi -\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B>G \end{matrix}\right . </math><br />
* Raum ist nicht gleichmäßig gefüllt<br />
* bei kleinen Intensitäten I in Buntton und Sättigung Instabil<br />
* Es kann bei Farbmanipulationen dazu führen das es keine Entsprechungen im RGB gibt<br />
** Lösungen:<br />
*** Dachförmige Begrenzung des HSI Raums -> sehr Aufwendig<br />
*** Normieren der Intensitäten -> Bild kann ins dunkle verschoben werden<br />
*** Maximalwert setzen -> Falsche Farbwerte (werden ins unbunte verschoben)<br />
*** proportionales skalieren bis Farbe im RGB-Würfel liegt<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
<br />
== HSL - Farbraum ==<br />
* Gern für Computergrafik verwendet<br />
* einfache Beziehungen<br />
* Die Verwendeten Biegriffe H,S,L entsprechen nicht der Bedeutung in der Farblehre und Form des Raumes<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
* Buntton ist extrem instabil bei kleinen Sättigungen<br />
* Form des Raumes ist unpraktisch<br />
<br />
= Farbmessung (GF 1 - 11) =<br />
<br />
* Farbmessung = Ermittlung der drei zu einer Farbvalenz gehörigen Farbmaßzahlen<br />
* 3 Messmethoden: <br />
** Vergleichsmethode oder Gleichheitsverfahren<br />
** Spektralverfahren<br />
** Dreibereichsverfahren<br />
<br />
== Gleichheitsverfahren ==<br />
<br />
* Vergleiche:<br />
** Vorlage mit additivem Gemisch<br />
** Vorlage mit Farbmusterkarten (DIN-Karten)<br />
* unverzichtbar bei physiologischen Untersuchungen<br />
* aufwendig und bei kleinen Probandengruppen ungenau<br />
* d.h. für technische Messungen ohne Bedeutung<br />
<br />
'''Messbedingungen nach DIN:'''<br />
* helladaptiertes und blendfreies Sehen<br />
* unbunter Messraum<br />
* neutrale Gesichtsfeldumgebung mit gleicher oder etwas kleinerer Leuchtdichte als im Messfeld<br />
* gut ausgeruhtes und neutral gestimmtes Auge<br />
* farbnormalsichtiger Beobachter<br />
<br />
== Spektralverfahren ==<br />
<br />
* zu messende Farbvalenz = Summe spektraler Farbvalenzen<br />
* greift auf gemessene Normspektralwertkurven zurück<br />
<br />
# '''spektrale Messung zur Ermittlung der Farbreizfunktion <math>\varphi (\lambda) </math>'''<br />
#* Selbststrahler: direkte Messung der Strahlungsfunktion <math>\rightarrow \varphi (\lambda)= S (\lambda)</math><br />
#* remittierende Vorlage: Remissionsfunktion der Vorlage messen, d.h. Strahlungsfunktion S ist vorher zu bestimmen und aus <math>\varphi (\lambda)</math> heraus zu rechnen <math>\rightarrow \varphi (\lambda)= \beta (\lambda) \cdot S (\lambda)</math><br />
# '''farbvalenzmetrische Auswertung'''<br />
#* wenn <math>\beta (\lambda)</math> ermittelt wurde, kann jede beliebige (tabellierte) Lichtquelle <math>S^{\ast} (\lambda)</math>eingesetzt werden<br />
#: <math><br />
\begin{bmatrix}<br />
X\\Y\\Z<br />
\end{bmatrix}<br />
= k \cdot<br />
\begin{bmatrix}<br />
\int \bar{x} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{y} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{z} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda<br />
\end{bmatrix}<br />
</math><br />
#* Normierungskonstante k:<br />
#** Selbststrahler: nur Farbwertanteile gefragt, d.h. k ist beliebig<br />
#** Körperfarben: Y für mattweißen Körper = 100, d.h. <math>k=\frac{100}{\int {S(\lambda) \cdot \bar{y}(\lambda) d \lambda}}</math><br />
<br />
'''Messgeometrien:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bildergalerie (45°,8°,Transmission) </span><br />
<br />
* ''45°-Geometrie'': Beleuchtung unter 45° schließt Glanzeinfluss aus <math>\rightarrow</math> Sensor blickt senkrecht auf Probe<br />
* ''8°-Geometrie'': Beleuchtung diffus über Ulbricht-Kugel <math>\rightarrow</math> Sensor blickt unter 8° auf Probe; Messung mit/ohne Glanz möglich<br />
* ''Transmissionsgeometrie'': Probe wird durchleuchtet<br />
<br />
== Dreibereichsverfahren ==<br />
* die drei Farbwerte werden direkt photometrisch gemessen<br />
* Filter und spektrale Empfindlichkeite der Strahlungsempfänger müssen an die spektrale Bewertungsfunktion angepasst sein<br />
* '''Luther-Bedingung:''' <math> \tau_x(\lambda) = \frac{c_x \cdot x(\lambda)}{s_1(\lambda)}</math><br />
** <math> \tau_x(\lambda) </math> ... Filtertransmission<br />
** <math>s_1(\lambda)</math> ... Sensorempfindlichkeit (hier im ersten Kanal)<br />
** <math>c_x</math> ... Gerätekonstante<br />
** Für den Y und Z Kanal ist die Formel analog<br />
* Der notwendige Filter kann gut durch ein Set von Schmalbandigen Filtern realisiert werden<br />
<br />
== Spektralmaskenverfahren ==<br />
<br />
* spezielles Dreibereichsverfahren<br />
* Lichtzerlegung erfolgt mit einem Prisma<br />
* Das zerlegte Lich beleuchtet eine Maske (Papier, Plaste, Metal .... ne richtige echte Maske)<br />
* Messen der spektralen Verteilung (CCD-Zeile)<br />
* Ähnlich dem Spektralverfahren nur das das spektrum bereits im analogen entsprechend gewichtet wird<br />
<br />
== Metamerie ==<br />
* zwei Farbproben die bei einer bestimmten Beleuchtung gleich aussehen können bei einer anderen Beleuchtung ganz anderst aussehen<br />
* Der Metermarie-Index beschreibt diesen durch Beleuchtungswechsel entstehenden Farbwechsel<br />
* KEIN Maß für die Farbkonstantheit sondern für den Unterschied von zwei Proben<br />
* Berechnung erfolgt im L*a*b* Raum <br> <math> M_T = \sqrt {(L_{1T}-L_{2T}+L_{2B}-L_{1B})^2 +(a_{1T}-a_{2T}+a_{2B}-a_{1B})^2+(b_{1T}-b_{2T}+b_{2B}-b_{1B})^2 } </math><br />
** T ... Testlicht<br />
** B ... Bezugslicht<br />
** 1,2 ... Probennummern<br />
<br />
= Klassifikation von Messaufgaben (GF 82 - 86) =<br />
<br />
# Messung von objektiven Eigenschaften, die sich in der Veränderung spektraler Charakteristika niederschlagen<br />
#* vordergründig ist Zusammenhang zwischen Veränderungen in den physikalischen Eigenschaften von Interesse (z.B. Waferinspektion)<br />
#* Zusammenhang sollte eindeutig und von hinreichender Empfindlichkeit sein<br />
#* Wahrnehmung unterschiedlicher Farben eher Nebeneffekt<br />
# Überwachung der Stabilität von farblichen Erscheinungen<br />
#* ist bei einer oder mehreren Beleuchtungen zu überwachen<br />
#* absolute Farbmessung nicht nötig; "Anlernen" auf Farben genügt<br />
#* Abstände im Farbempfinden müssen sich in gleicher Weise in Veränderungen der Sensorsignale wiederspiegeln<br />
# absolute Farbmessung<br />
#* d.h. Ermittlung der korrekten Farbvalenz unter beliebigen Messbedingungen<br />
#* Spektralwertkurven müssen realisiert werden<br />
# Messung des spektralen Remissions- und/oder Transmissionsverhaltens von Materialien<br />
#* ausschließlich spektrale Messverfahren<br />
#* Messung der Strahlungsfunktion und der remittierten Leistungsdichte<br />
#* Berechnung der Farbvalenz bei beliebiger Beleuchtung und des Metamerie-Index<br />
<br />
'''steigende Ansprüche mit steigender Nummerierung'''<br />
<br />
= Einfache Farbkalibrierung (GF 16 - 41) =<br />
* Farben sollen möglichst exakt Wiedergegeben werden<br />
<br />
== Ausgleich von Beleuchtungseinflüssen ==<br />
* Körperfarben werden durch ihre Remmision bestimmt <math> \beta </math><br />
* Bei unterschiedlicher Beleuchtung sehen Farben unterschiedlich aus aber das Auge kann sich an die Beleuchtung adaptieren<br />
** Funktioniert bei Fotos aber nicht -> Beleuchtungsausgleich ist wichtig<br />
** Bei Farbvergleich noch viel mehr<br />
** Wird realisiert durch Weißabgleich (auf integraler Farbebene nicht möglich )<br />
* Direkte Vermessung der spektralen Eingenschaften der Kamera nicht möglich (Da Werte in Kamera bereits verrechnet werden um z.B. die negativen Anteile der Spektralkurven zu realisieren)<br />
** sehr Aufwendig (Kamera auseinanderbasteln um an die echten werte zu kommen + das durchgehen durch das Spektrum in kleinen Schritten)<br />
* Daher Verwendung von Testfarben<br />
** Führt auf Lösung eines linearen Gleichungssystem<br />
** Für menschliches empfinden -> Optimieren im CIELAB-Raum<br />
* Vorsicht bei nichtlinearen Funktionen zur Farbkalibrierung -> Kann bei zu wenig Testfarben zu total falschen Ergebnissen führen !!<br />
<br />
= Color Management (F CM 1 - 20) =<br />
* verschiedene Geräte können verschiedenen Farben darstellen<br />
* verschiedene Geräte verwenden andere Grundfarben zum mischen<br />
* Mit Hilfe von Profilen (Tabellierung der Farbwerteumrechnungen) wird eine Konvertierung der Farben vom Geräteraum in den CIELab Raum bzw umgekehrt durchgeführt<br />
* in den Profilen wird auch vermerkt welche Farben darstellbar sind und welche nicht<br />
* Somit kann man eine "Druckvorschau" auch auf einem Monitor erreichen (natürlich nur für Farben die auf beiden Geräten dargestellt werden können)<br />
** Jedes Mapping der Farben (Gamut-Mapping stellt somit einen Kompromiss dar)<br />
**# Perceptual (Die Farbbeziehungen untereinander werden erhalten) Komprimierung des Gamuts bis er in den zur Darstellung verwendeten passt<br />
**# Colometrisch -> Exakte Reproduktion aller in beiden Gamuts darstellbaren Farben<br />
**## relativ -> weiß wird auf weiß abgebildet und alle anderen Farben relativ dazu<br />
**## absoult farbmetrisch<br />
**# Saturation, alle Farben außerhalb des Zielgamuts werden zugunsten der Sättiung verändert<br />
* Kalibrierung -> Versetzen des Gerätes in einen definierten, reproduzierbaren Zustand<br />
* Charakterisierung -> Modellierung eines Gerätes welches sich ein einem stabilen definierten Zustand befindet<br />
<br />
= Kameras (GF_Ka 1 - 12) =<br />
<br />
'''Einsatzfelder:'''<br />
* ortsaufgelöste Messung von Farbe<br />
* Aufnahme und Wiedergabe von True-Color Bildern<br />
* Aufnahme farbiger oder mehrkanaliger Bilder für die Verarbeitung/Analyse (Qualitätssicherung)<br />
* Photogrammetrische Anwendungen (Lösung des Korrespondenzproblems)<br />
* Radiometrische Anwendungen (Messen im Spektralbereich)<br />
<br />
'''Dreibereichsmessung:'''<br />
* setzt die Trennung von drei sich überlappenden Spektralbereichen voraus, die dann wellenlängenabhängig zu bewerten und zu integrieren sind<br />
<br />
== Dreichip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* optische Kanaltrennung und Bewertung<br />
* beste Bildqualität, da hohe Auflösung in allen drei Kanälen<br />
* keinen örtlichen Versatz der Pixel in den drei Farbauszügen<br />
* Filter einfacher und präziser zu realisieren<br />
* befinden sich z.B. als dichroitische Spiegel auf den Strahteilerprismen<br />
<br />
<span style="color:#ee0000;"> \\ Hot-Mirror-, Cold-Mirror-Korrektur????</span><br />
<br />
== Einchip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: doppelte Anzahl grüner Pixel wegen Schärfe, MTF des Auges </span><br />
<br />
* örtliche Kanaltrennung und Bewertung<br />
* Streifen- oder Mosaikfilterstrukturen auf den einzelnen Pixeln zur örtlichen Signaltrennung<br />
* 3 oder 4 unterschiedliche spektrale Auszuüge zur Erzeugung der Farbinformation<br />
* Matrix selbst kann Interline- oder Frame-Transfer-Matrix sein<br />
* kostengünstiger und kleiner als Dreichip-Kameras<br />
* Probleme:<br />
** Farbvalenzen aus örtlich versetzten Auszügen (z.B. Farbsäume an Kanten)<br />
** nicht korrigierbare Fehler aus Nichtlinearitäten und Dunkelsignalen bei der Bildung von Mischsignalen<br />
<br />
'''generelle Anforderungen an die Signalverarbeitung:'''<br />
<br />
* primäre Kamerasignale stellen keine farbmetrische Schnittstelle zur Verfügung, d.h. alle Bewertungsfunktionen sind nicht-negativ (Spektralwertkurven fordern aber negative Wichtungen)<br />
* je nach realisierten Filtern und Genauigkeitsansprüchen <math>\rightarrow</math> lineare Matrizierung (meist Kameraintern) oder komplexere Approximation<br />
* bei hohen Genauigkeitsansprüchen <math>\rightarrow</math> Umgehung der Kamerainternen Matrizierung, weil Verstärkungsfaktoren, Toleranzen, Temperaturdrift, Langzeitstabilität etc. nicht bekannt sind<br />
* insgesamt geringe Nichtlinearitäten der CCD's können in den Ansteuerbereichen der einzelnen Kanäle zu wesentlichen Fehlern führen:<br />
** Farbvalenz ändert sich kontinuirlich mit der Shutterzeit<br />
** Pixelweise DSNU- (Dunkelsignalungleichförmigkeit) und PRNU- (Hellsignalungleichförmigkeit) Korrektur vor Erzeugung der Farbvalenz erforderlich, da sich Festmusterrauschen nicht nur auf Intensität sondern auch auf Farbart auswirkt<br />
** Dunkelsignal verdoppelt sich alle 7K, Gleichanteil wird aber geklemmt<br />
** Lichtquellentyp und Langzeitverhalten wirken sich nicht nur Intensität sondern auch auf Farbtemperatur aus<br />
<br />
'''4 spektrale Bereiche:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* vorteilhaft zur Erzeugung von Farbdifferenzsignalen für die TV-Kompatibilität<br />
* im Field-Integration-Mode werden Mischsignale gebildet, die die erforderliche Signalkorrektur für hohe Ansprüche behindern<br />
* Nichtlinearität der Ausgangsverstärker wirkt sich auf Korrektur der primären Mischsignale aus<br />
<br />
== Sequentielle Einchip-Kamera ==<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* zeitliche Kanaltrennung und Bewertung<br />
* relativ genaue Approximation der Spektralwertkurven möglich<br />
<br />
== Elektrisch steuerbare Filter ==<br />
<br />
* über die Wellenlängenabhängigkeit der Eindringtiefe der Photonen und die Steuerbarkeit der Tiefe der Potentialmulden der sensoren lassen sich steuerbare spektrale Empfindlichkeiten erzeugen<br />
<br />
= Verarbeitung von Farbbildern (1 - 31) =<br />
* Das unabhängige verarbeiten der Farbkanäle eines Farbbildes führt zu Nebeneffekten wie Farbsäume<br />
* Die höhere Vielfalt des mehrdimensionalen Raumes von Farbbildern kann Vorteilhaft genutzt werden für Pixelklassifikation, Segmentierung <br />
* Abstände, Mittlere Werte und örtliche Veränderungen sind in empfindungsmäßig gleichabständigen Räumen zu definieren und zu bewerden<br />
<br />
== Histogramme und Statistiken für Farbbilder ==<br />
* Farbbilder liefern dreidimensionale Häufigkeitsverteilungen im Farbraum → können als Approximation der entsprechenden 3D-Dichten verwendet werden<br />
* statistische Zusammenhänge zwischen den Kanälen werden in mehrdimensionalen Dichten betrachtet<br />
** Für Handauswertung meist nur 2D-Dichten, wegen der Übersicht<br />
** Für maschinelle Auswertung können diese dichten auch dreidimensional werden<br />
** für die parametrische Darstellung der Cluster werden meist multivariante Gaußverteilungen eingesetzt<br />
*** Einr Gaußverteilung ist für die Beschreibung eines Bildes mit mehreren Objekten nicht geeignet<br />
*** Die Kovarianzmatrix einer solchen "Approximation" kann aber gut zur Einschätzung der Streuung und der Mittelwerte in dem Bild eingesetzt werden<br />
<br />
=== Histogramm - Modifikationen ===<br />
* Contrast Streching, Polygonal Image Scaling, Histogram-Equalisation Siehe [[Grundlagen der Bildverarbeitung und Mustererkennung#homogene Punktoperationen|Grundlagen der Bildverarbeitung]]<br />
* Manipulation kann in verschiedenen Farbräumen ausgeführt werden (RGB,HSI,...)<br />
** In nicht empfindungsmäßig gleichabständigen Räumen muss die Transformation nicht unbedingt zum Ziel führen<br />
==== Manipulation im Farbraum RGB ====<br />
* ist der Farbraum in dem die Daten häufig vorliegen<br />
* Wirkung kann auf Grund der starken korrelation der RGB Werte bei geringen Sättigungen ausbleiben<br />
* Farbverfälschung wenn einzelne Kompontenen unabhänig von einander behandelt werden<br />
* hohes apriori-Wissen notwendig<br />
* wenn Falschfarbdarstellung gewünscht ist kann dies das mittel der Wahl sein<br />
<br />
==== Manipulationen im Farbraum HSI ====<br />
* unproblematisch in Bezug auf Farbverfälschungen<br />
* Zielsetzungen können sich einfacher beschreiben lassen (ähnelt der Beschreibung von Farbe durch den Menschen)<br />
* unabhängige Komponente (Intensität)<br />
* Kontrastverbesserung durch Sättigungsausgleich ohne Farbveränderung möglich<br />
* Stabilitätsprobleme nahe den unbunten Farben<br />
# '''Ausgleich des Intensitätshistogramms'''<br />
#* Werte möglich die keine entsprechung mehr im RGB haben → müssen geeignet herruntergerechnet werden<br />
#* bei kleinen Intensitäten sind die Bunttöne instabil → ausschließen von Veränderungen<br />
# '''Sättigungsausgleich'''<br />
#* Modifikation der Sättigung unter Beibehaltung des Bunttones<br />
#* Bei kleinen Sättigungen und kleinen Intensitäten ist der Buntton instabil → Ausschließen<br />
#* Histogramm über alle Bunttöne ist häufig verschmiert → besser Histogramm über Buntton Segmente<br />
# '''Bunttonausgleich'''<br />
#* Ziel sind Farbfalschbilder um Objekte besser unterscheiden zu können<br />
#* bei zu großen Buntton Änderungen wird die Interpretierbarkeit nur bei homogenen Flächen verbessert, meist wird sie eher verschlechtert<br />
#* Unsicherheit des Bunttons → bei geringen Sättigungen und Intensitäten ist der Buntton auszuschließen<br />
<br />
== segmentgesteuerte Farbvalenztransformationen ==<br />
* Globale Statistiken werden häufig durch nicht interressante Objekte dominiert<br />
* Ausweg ist das Betrachten von Ausschnitten und anwenden der Transformationen auf die Ausschnitte<br />
* erfordert zu erst das Segmentieren des Bildes<br />
<br />
= Referenzfreie Farbadaption auf Basis des 3D-Histogramms (HuS 32 - 39 ) =<br />
* unter bestimmten umständen kann auf eine Kalibrierung der Kamera mittels Referenzfarben verzichtet werden<br />
* Zur Korrektur soll die parametrische Approximation der 3D-Histogramme durch multivariante Gaußverteilungen genutzt werden<br />
== Vorraussetzungen für die Anwendbarkeit ==<br />
* Strukturierte Szene mit mehreren ntürlichen Objekten, die gleichmäßig über den Bunttonwinkel verteilt sind und durchschnittlichen Sättigungsgrad aufweisen<br />
* Langgestreckter SW-Prozess im Vergleich zum Rot-Grün und Blau-Gelb Prozess<br />
<br />
== Vorgehensweise ==<br />
* Korregieren von "vermutlichen" Abweichungen des Bildes in der Unbuntheitsachse<br />
* Dazu Ermitteln der Hauptachsen mit PCA<br />
* Drehen der Hauptachse in den SW-Prozess<br />
* Rücktransformation und Darstellung<br />
<br />
= Histogrammbasiertes Farbmatching(1 - 15) =<br />
* Histogramme sind im 2D Bild invariant gegenüber Rotation, Translation und Maßstab (wenn die Angaben relativ erfolgen !)<br />
* Histogramme sind auch relativ stabil gegenüber moderaten Verdeckungen und 3D-Rotation<br />
* Grobe Quantisierung der Histogramme um Fehlertoleranz zu erhöhen<br />
* Damit können Histogramme zur Objekterkennung eingesetzt werden → Bezeichnet als Color Indexing<br />
<br />
== uniformes Binning ==<br />
* einteilen der Farben in ein gleichverteiltes Histogramm<br />
* Suche in einem Bild den Ausschnitt welcher eine minimale Distanz zum Referenzbild hat<br />
* Als Abstandsmaß verwendet werden die Histogramme genutzt<br />
** Summe der Quadratischen Differenzen (Histogramme als Vektoren betrachtet und dann den euklidischen Abstand berechnet ohne Wurzel)<br />
** Earth Movers Distance (Berechnen was sich wohinverteilt haben könnte ... erfordert die Lösung des Transportproblems)<br />
* einfach aber die Bins ändern sich Sprunghaft, vor allem dann wenn Farben knapp an den willkürlichen Bingrenzen liegen<br />
<br />
== Unscharfe Chroma-Orts-Histogramme ==<br />
* Nachteile des uniformen Binning sollen überwunden werden<br />
* Alle Pixel bekommen eine unscharfe Klassenzugehörigkeit (Binnzugehörigkeit) je nach Abstand zum entsprechenden Binnmittelpunkt (wie bei [[Softcomputing|Fuzzy-C-Means]])<br />
** Ein Parameter ermöglicht dabei die Verunschärfung einzustellen (von total unscharf bis zum festen Binning)<br />
* Auch der absolute Ort der Segmente (aus denen die Histogramme erstellt werden) soll mit verwendet werden<br />
** Dazu wird das Bild in entsprechende Bereiche geteilt (8x8,16x16,...)<br />
** Alle Blöcke werden durchnnummeriert<br />
** Auch hier kommt es zu harten Umbrüchen wenn Pixel knapp an den Grenzen liegen → auch hier verunschärfen<br />
** Welche Indizees haben die Nachbarn? (Nachbarschaft in den Indizees der Blöcke heißt nicht gleich 2D-Nachbarschaft)<br />
<br />
== Cluster mittels Graphenansatz ==<br />
* Ziel ist es:<br />
** Sprunghafte Änderung der Binns zu verhindern<br />
** wenige Merkmale zu verwenden<br />
** Eng beieinander liegende Maxima trotzdem unterscheiden zu können<br />
* Verwendete Bilddaten:<br />
** Farbwinkelhistogramm, wenn Sättigung der Farben ausreichend ist<br />
** Intensitätsdiagramm, wenn Sättigung der Farben zu gering wird<br />
* Vorgehen:<br />
** Jeder Wert im Histogramm zeigt auf den Größten in seiner Nachbarschaft<br />
** Das Maximum zeigt auf sich selbst → Wird Merkmal<br />
** Weiteres Merkmal ist die Fläche die zum Maximum gehört (Nachbarn die direkt bzw. indirekt auf das entsprechende Maximum zeigen)<br />
* Match:<br />
** Finde ein Tupelpaar (Maxima in Referenzhistogram und Suchhistogram mit dem geringsten Abstand)<br />
** Ziehe gemeinsame Fläche von jedem Tupel des Paares ab<br />
** summiere gemeinsame Fläche (?)<br />
** Wiederhole bis sich keine Tupelpaare mehr bilden lassen<br />
** beziehe die laufende Summe auf das Maximum der Summe der ursprünglichen Flächen<br />
<br />
= Störunterdrückung (SU 1 - 16) =<br />
* Für nachfolgende Verarbeitungsschritte ist die Störunterdrückung sehr wichtig<br />
* Verschiedene verfahren der Rauschunterdrückung sind in [[Grundlagen der Bildverarbeitung und Mustererkennung#Lokale Operatoren zur Bildverbesserung (LOa 1 - 44) |BV]] eingeführt worden<br />
<br />
== Störunterdrückung durch Faltungsfilter ==<br />
* Anwendung wird einfach vektoriell durchgeführt (als würde man drei unabhängige Bilder gleichzeitig Filtern wollen)<br />
* es entstehen neue Farbtöne an den Übergängen zwischen Farben<br />
* im HSI Farbraum ist eine getrennte Betrachtung der Farbe und der Sättigung/Intensität möglich<br />
* Buntton ist zyklisch → muss bei der Mittelung beachtet werden<br />
* in der Farbe kann stärker gemittelt werden als in der Helligkeit (Auge nimmt Farbveränderungen schlechter wahr)<br />
* Komplexe Zahlen bieten sich hier als Rechenmittel an<br />
<br />
== adaptive gewichtete Mittelung ==<br />
* detailerhaltende Fähigkeiten von Filtern wegen der Farbsäume besonders von Interesse<br />
* Abstände verkomplizieren sich im Vergleich zu Grauwertbildern (Vektorabstandsmaße, Winkeldifferenzen,...) <br />
* Vorgehen nach dem Berechnen des Abstandes dann wieder Analog zur Grauwertfilterung<br />
<br />
== Medianfilterung ==<br />
* Problem bei der Übertragung des Rangordnungsgedankens auf Vektoren<br />
** Komponentenweises Vorgehen ist nicht geeignet (absolute Farbverfälschungen möglich)<br />
** Suche des besten Vertreters des SETS (wenn der verwendete Media im SET ist werden keine zu falschen Farben gewählt/gesetzt)<br />
*** kleinste Abstandssumme zu allen anderen Pixeln<br />
<br />
== Kombination von Averaging und Medianfilterung ==<br />
* Medianfilter ist gut für Impulsrauschen, schlecht bei Gauß hier ist Average gut<br />
* Bei den Filtern gibt es keinen unterschied zu den Grauwertbildern (unterschied besteht nur in der Realisierung der verwendeten Media/Average Filter nicht in ihrere Kombination)<br />
<br />
== Vektor-Richtungs-Filter ==<br />
* '''Basic Vecotr Directional Filter'''<br />
** Winkel zwischen Farbvalenzen als Distanzmaß<br />
** Ergebnis ist die Farbvalenz mit der kleinsten Winkeldifferenzsumme zu allen Valenzen des Fensters<br />
** Achromatische Rauschkomponenten werden nicht beseitigt<br />
* '''Generalized Vector Directional Filter '''<br />
** Suche nach den besten Vektoren aus Sicht der Richtung<br />
** Medianfilterung der Beträge der Vektoren<br />
* '''Directional Distance Filter'''<br />
** Vermeiden der Ineffizenz des GVDF Filters durch ein gemischtes Distanzmaß (Betrag und Winkel gleichzeitig)<br />
<br />
= Kantendetektion in Farbbildern (1 - 21) =<br />
<br />
= Farbpixelklassifikation (Farbpixelklassifikation 1 - 21) =<br />
<br />
= Clusterverfahren (Farbpixelklassifikation 19 - 45) =<br />
<br />
= Segmentierung (Seg 1 - 8) =<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Grundlagen_der_Farbbildverarbeitung&diff=6983Grundlagen der Farbbildverarbeitung2009-03-16T09:29:28Z<p>DarkGhost: /* Histogrammbasiertes Farbmatching(1 - 15) */</p>
<hr />
<div>Link zum [http://www.zbs-ilmenau.de/intern/vip-toolkit/index.php Vip toolkit]<br />
= Einführung (GF_a 8 - 47) =<br />
<br />
== Geschichtliches zur Farbe ==<br />
<br />
=== Newton ===<br />
<br />
* 1672: New Theory about Light and Colours<br />
** Sonnenlicht = Mischung einzelner Farben<br />
** Spektralfarben sind objektive Eigenschaft des Lichtes<br />
<br />
[...]<br />
<br />
=== Goethe ===<br />
<br />
[...]<br />
<br />
== Begriff der Farbe ==<br />
<br />
* '''Farbe im engeren Sinn, stellt eine spezielle menschliche Sinneswahrnehmung dar'''<br />
* <math>\Phi_i = \int_{\Delta \lambda_i} \varphi_{\lambda} (\lambda) d \lambda</math><br />
* Leistungsdichte <math>\phi (\lambda)</math> stellt dagegen den Farbreiz dar, der die Farbempfindung hervorruft<br />
* Vektoren <math>\underline \Phi</math> sind je nach Dimension mehr oder minder genaue Approximationen des Farbreizes<br />
<br />
* Orientierung am menschlichen visuellen System und die Betrachtung psychologischer und physiologischer Grundlagen sind von Interesse:<br />
** zur richtigen Bewertung der Schwierigkeiten und Herausforderungen bei der Schaffung technischer Lösungen<br />
** zur Anpassung technischer Lösungen der Bildwiedergabe an das visuelle System<br />
** zur Nutzung optimaler Naturprinzipien für technische Lösungen<br />
** weil technische Systeme im allgemeinen auf dem inneren Modell des Menschen von der Welt beruhen und dieses Modell in hohem Maße durch den visuellen Kanal des Menschen beeinflusst ist<br />
** weil optoelektronische Sensoren, Bildverarbeitung und Bildanalyse wichtige Schnittstellen zwischen Mensch und Maschine darstellen<br />
**weil viele Objekteigenschaften durch visuelle Eindrücke beschrieben werden<br />
<br />
* menschliches Auge kann ca. 100 Graustufen / ca. 300 000 Farben unterscheiden<br />
<br />
* Drei grundsätzliche Anwendungen von Farbinformation:<br />
** Pseudokolorierung<br />
** Falschfarbendarstellung<br />
** Echtfarbdarstellung (True Color) <math>\rarr</math> hier Schwerpunkt<br />
<br />
== Farbtäuschung ==<br />
<br />
* Zuordnung zwischen Physik und Wahrnehmung nur eindeutig wenn bunte Dinge isoliert betrachtet werden<br />
* Werden bunte Objekte in bunte Umgebungen eingebettet/bewegt, dann können abweichende Farbwahrnehmungen auftreten, so genannte Farbtäuschungen<br />
* es existieren unterschiedliche Arten solcher Täuschungen:<br />
** ''Farbinduktion oder simultaner Farbkontrast'' (Farbe wird durch ihre Umgebung modifiziert)<br />
** ''Farbkonflikt'' (es konkurrieren verschiedene Sehinformationen miteinander)<br />
** ''Subjektive Farben'' (es werden bunte Farbtöne wahrgenommen, die nicht vorliegen)<br />
<br />
'''Simultaner Farbkontrast:'''<br />
* erstmals 1839 beschrieben<br />
* wo der Effekt entsteht (Auge, Cortex) ist unklar<br />
<br />
'''Farbinduktion:'''<br />
* bei kleinteiligen, sich wiederholenden Strukturen erfolgt Angleichung<br />
* kann zur Rauschunterdrückung oder zur Unterdrückung von Feintexturen zugunsten der Erkennung größerer Objekte wichtig sein<br />
<br />
'''Farbkonflikt:'''<br />
* Formen und Strukturen konkurrieren mit Farben ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf White'sche Illusion])<br />
<br />
'''Subjektive Farben:'''<br />
* durch Bewegung ist es möglich Farben zu erzeugen die ursprünglich nicht vorhanden waren ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf Drehwurm in Farbe])<br />
<br />
== Farbwahrnehmung beim Menschen ==<br />
<br />
[...]<br />
<br />
=== Rezeptive Wahrnehmung ===<br />
* 1807 stellte Young die Hypothese auf das Farbsehen auf drei Arten von Sinneszellen beruht (rout,grün,blau)<br />
* erst 1964 konnten dies bewiesen werden, durch die Messung der Absorptionsspektren<br />
*[[Datei:Pdt-kurven.svg]]<br />
<br />
=== Postrezeptive Wahrnehmung ===<br />
* Mit dem 3 Farbenmodell konnten einige psychologische Erscheinungen nicht erklärt werden<br />
** Es werden 4 Farben als besonderst "rein" empfunden (Rto, Geln,Grün, Blau)<br />
** Unbunte Farben werden werden als das fehlen von Farben wahrgenommen<br />
** Schwarz schein gleichberechtigt zu Weiß<br />
** keine wahrgenommene Farbe erscheint zugleich rötlich und grün<br />
* das führte zur Gegenfarbentheorie die anfangs nur Psychologisch begründet war 1958 aber physiologisch Nachgewiesen werden konnte<br />
** Rot - Grün<br />
** Gelb - Blau<br />
** Schwarz - Weiß<br />
* → CIELab-Farbraum<br />
<br />
=== Kortikale Kodierung ===<br />
* Weder die 3 Farbentheorie noch die Gegenfarbentheorie beschreiben die bewusste Wahrnehmung des Menschen<br />
* Deshalb erweitertes Modell<br />
** Farbton / Buntton beschreibt die als besonderst rein empfundenen Spektralfarben<br />
** Sättigung beschreibt wie stark eine Farbe verblasst ist<br />
** Helligkeit beschreibt, wie hell oder dunkel eine Farbe ist<br />
* Wo/Wie genau die neuronale Verarbeitung erfolgt, ist noch nicht sicher belegt<br />
<br />
== Die Ordnung in der Welt der Farben ==<br />
* Newton kannte die Wellenlänge noch nicht → er ordnete die Farben nach dem Regenbogen<br />
* Goethe verwendete das Gegenfarbenmodell<br />
* Munsell schlug 1905 ein Farbordnungssystem vor bei dem alle Abstände zwischen den Farben Empfindungsmäßig gleich sind<br />
** führt zu einem geometrisch nicht regelmäßigen Körper<br />
<br />
== Das Modell der Farbe ==<br />
* '''Definition'''<br />
** Farbe ist diejenige Gesichtsempfindung eines dem Auge strukturlos erscheinenden Teils eines Gesichtsfeldes durch die sich diser Teil bei einäugiger Betrachtung mit unbewegtem Auge von einem gleichzeitig gesehenen ebenfalls strukturlos angrenzendem Bezirk allein unterscheidet (unbunte Farben: Schwarz, Weiß und Graustufen, bunte Farben: Helligkeit; Buntheit setzt sich aus Buntton und Farbsättigung zusammen)<br />
** Farbe ist durch Helligkeit, Buntton, Sättigung eindeutig bestimmt → 3D Modell<br />
*** drei linear unabhängige Größen<br />
*** Additive Mischung zur Reproduktion von Farbe (aus Rot, Grün, Blau)<br />
*** drei linearunabhängige Größen spannen immer einen Raum auf → Rot,Grün und Blau werden die Achsen dieses Raumes<br />
<br />
=== Farbvalenz ===<br />
* Mit unserem Modell läßt sich jede Farbe als linearkombination unserer drei Basisvektoren aufschreiben<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
** <math> \vec F</math> ... Farbvalenz<br />
** <math> \vec r, \vec g, \vec b </math> ... die drei Basisvektoren die den Raum aufspannen (Rot, Grün und Blau)<br />
** <math> R,G,B, |\vec F| </math> ... die Farbwerte<br />
** <math> \vec r \cdot R, \vec g \cdot G, \vec b \cdot B </math> ... die drei Primärvalenzen<br />
* Ermittelt werden die Farbwerte mit Hilfe der Vergleichsmethode<br />
** Eine Person vergleicht ein Target mit einer Farbe die aus den drei Primärvalenzen gemischt wird<br />
** wenn die Empfindung der beiden Farben gleich ist, dann notieren wir die Werte<br />
* Innere Farbmischung<br />
** das Target wird mit weißen Licht beleuchtet und wir drehen nur an dem Farbmischgerät<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
* Äußere Farbmischung<br />
** Wir beleuchten das Target mit farbigen Lichte<br />
**<math> \vec F+ B \cdot \vec b = R \cdot \vec r + G \cdot \vec g \rightarrow \vec F = R \cdot \vec r + G \cdot \vec g - B \cdot \vec b</math><br />
<br />
=== Farbreizmetrik ===<br />
* Die Farbreizfunktion <math> \varphi_\lambda</math> beschreibt die spektrale Zusammensetzung der Farbempfindungen<br />
*# Selbstleuchtende Objekte<br />
*#* <math> S_\lambda (\lambda)</math> beschreibt die spektrale Verteilung der Quelle<br />
*#* Wahrnehmung: <math> \varphi_\lambda = S_\lambda</math><br />
*# Auflicht Vorlagen<br />
*#* <math>\beta_\lambda(\lambda)</math> beschreibt den spektralen Remisionsgrad der Vorlage<br />
*#* Wahrnehmung: Licht reflektiert von der Vorlage <math> \varphi_\lambda = S_\lambda \cdot \beta_\lambda</math><br />
*# Durchlichtvorlagen<br />
*#* <math>\tau_\lambda(\lambda)</math> spektraler Transmissionsgrad der Vorlage<br />
*#* Wahrnehmung von Licht welches die Vorlage durchdrungen hat <math>\varphi_\lambda= S_\lambda \cdot \tau_\lambda</math><br />
* Damit haben folgende Faktoren Auswirkung auf die Wahrgenommene Farbe<br />
*# Die Beleuchtung des Objektes (Spektrale Zusammensetzung des Lichtes der Lampe)<br />
*# Das Remmisionsverhalten der beleuchteten Oberfläche<br />
*# Die wellenlängenabhängige Empfindlichkeit der drei Zapfen des Auges<br />
* Es besteht die Möglichkeit die pdt Kurven direkt zur Beschreibung des Farbempfindens zu nutzen<br />
* Die Farbwerte könnte man dann wie folgt ermitteln: <math> \left(\begin{matrix}P\\D\\T\end{matrix}\right)=k\int_{380\mathit{nm}}^{780\mathit{nm}}\varphi (\lambda )\cdot \left(\begin{matrix}p(\lambda )\\d(\lambda )\\t(\lambda )\end{matrix}\right)d\lambda </math><br />
* Für die technische Darstellung von Farbe werden allerdings R,G,B werte benötigt<br />
* Die dafür notwendigen Spektralwertkurven können mit Hilfe der Vergleichsmethode ermittelt werden<br />
* Man erhält damit folgende Kurven<br />
[[Datei:SpektralwertfunktionenRGB.jpg]]<br />
* Mit der gleichen Formel wie bei der pdt Kurve lassen sich nun die R,G,B Werte rechnerisch ermitteln<br />
<br />
== Farbanalyse, Zusammenhang mit der Farbwidergabe ==<br />
* Das Kammera - Monitor System soll die Farbe exakt wiedergeben<br />
* Der Monitor verwendet EBU Phosphore für die Farbdarstellung<br />
** haben selbst Spektralwert kurven => keine Monochromatischen Lichter mehr<br />
* Die notwendigen spektralwertkurven die die Kamera realisieren muss um die Bilder auf dem Monitor exakt darzustellen lassen sich mit Hilfe der pdt Kurven herleiten (Über forderung der Gleicheit der Farben)<br />
* Sie besitzen stark negative Anteile => Auch die Filter der Kamera müssten negative Transsmissionsgrade besitzen<br />
** technisch ist das nicht möglich<br />
* es bleibt also nur die Möglichkeit die notwendigen Parameter zur Ansteuerung des Monitors aus positive one-peak Kurven zu berechnen<br />
<br />
== Subtraktive Farbmischung ==<br />
* Die Subtraktive Farbmischung lässt sich auf die Multiplikation der Transmissionsgrade zurückführen (ein Filter lässt 50% rotes licht durch, wenn man zwei dieser Filter hintereinander legt, dann geht nur noch 25% rotes Licht durch die Anordnung (0.5*0.5 = 0.25) )<br />
* wenn <math> \tau_0 </math> die Transmission eines Filters für die normierte Dicke 1 und die normiert Dichte 1 ist dann kann man<br />
** mit dem Lambertschen Absorbtionsgesetzt die Absortption von dickern/düneren Material berechnen <br> <math> \tau = [ \tau_0]^w </math><br />
*** w ... Dicke des Materials im Verhältnis zum norm Material<br />
** mit dem Beerschen Gesetz die Transmission von Meterial mit anderer Dichte berechnen <br><math> \tau = [ \tau_0]^c </math><br />
*** c... Das Verhältnis der neuen zur alten Dichte<br />
** kann man auch kombinieren zu (Lambert-Beersches Gesetz)<br />
** <math> \tau = [ \tau_0]^{c \cdot w} </math><br />
* Da sich die Transmission Multiplikativ zusammensetzt wird auch gerne mit dem logarithmus der Transmission gerechnet (optische Dichte)<br />
**<math> D = - lg \tau = lg \frac{1}{\tau}</math><br />
** Damit vereinfacht sich das Lambert-Beersche gesetz zu: <math> D = c \cdot w \cdot D_0</math><br />
* selbstverständlich sind die Transmission <math>\tau</math> und die optische Dichte D von der Wellenlänge abhänig ... zur Übersichtlichkeit wurde das in den Formeln nur weggelassen<br />
* Bei einem Papierbild kommt zu dem Filter noch die Reflexion an der Farboberfläche und an der Papieroberfläche<br />
** Beachte das Licht was an der erste Schicht wegreflektiert wird kann icht tiefer eindringen. Nur noch <math> (1-\beta)*S </math> dringt an Licht durch den ersten Filter!<br />
*** <math> \beta </math> ... Remmisionsgrad der ersten Farbe<br />
*** <math> S </math> ... Spektrale Verteilung der Lichtquelle<br />
<br />
= Farbmetrische Schnittstellen - Farbräume (GF a 49 - 55) =<br />
<br />
<pre><br />
Unterschiedliche bildgebende Systeme<br />
z.B. Farbkameras<br />
Farbscanner<br />
Spezialkameras<br />
</pre><br />
'''Widerspruch''' <math>\updownarrow</math> Farbmetrische Schnittstelle<br />
<pre><br />
Unterschiedliche Bildwiedergabesysteme<br />
"True-Color-Darstellung"<br />
- unterschiedliche Monitore, Beamer, Drucker etc.<br />
</pre><br />
<br />
== Leuchtdichte (Luminanz) ==<br />
<br />
* Luminanz Y ist die Strahlungsleistung, bewertet mit der spektralen Empfindlichkeitsfunktion des Auges für das Hellempfinden<br />
* Y ist Leistungsproportional, wenn Lichtzusammensetzung (Leistungsdichte <math>\Theta (\lambda))</math> konstant bleibt<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* Leuchtdichte berechnet sich nach dem ''Abneyschen Gesetz'':<br />
: <math> Y = L = k \cdot \underline L^T \cdot \underline F </math><br />
:* <math>\underline L^T - </math> Leuchtdichtebeiwert: gibt an wie groß der Beitrag jedes Farbwertes der Farbvalenz zum Helleindruck ist, abhängig vom gewählten Farbwiedergabesystem<br />
* Leuchtdichte L <math>\ne</math> Intensität I<br />
: <math> I = \frac 1 3 (R+G+B)</math><br />
<br />
* die perzeptuelle Antwort unseres Auges auf die Leuchtdichte wird Helligkeit (Lightness) genannt<br />
: <math><br />
L^{\star} = \begin{cases}<br />
116 \cdot \sqrt [3] {\frac Y {Y_n}} -16, & \text{wenn } \frac Y {Y_n} > 0{,}008856\\<br />
903{,}3 \cdot {\frac Y {Y_n}}, & \text{wenn } \frac Y {Y_n} \le 0{,}008856<br />
\end{cases}<br />
</math><br />
<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: Eine Quelle die nur 18% der Luminanz einer Referenz hat, erscheint uns immer noch halb so hell wie die Referenz </span><br />
<br />
== Gammakorrektur und Luma ==<br />
* '''Gammakorrektur:'''<br />
** Aufgrund der Ansteuerung von CRT Monitoren und der verwendeten Phosphore ergibt sich ungefähr eine quadratische Abhängigkeit der Luminanz vom Videosignal<br />
** Die Luminaz der drein einzelnen Farbkanäle muss den gleichen Verlauf aufweisen. Sie dürfen sich nur in ihren Maximalwerten unterscheiden!<br />
*** Sonst ist es nicht möglich die Helligkeit zu ändern und dabei die Farbe konstant zu halten<br />
** Die Gammakorrektur sorgt dafür das die Farbwiedergabe auf dem Monitor linear verläuft und nicht quadratisch<br />
*** Notwendig damit wir die gleich Wahrnehmung erzielen können als währe das Kamera-Monitor System nicht vorhanden<br />
<br />
*'''Luma:'''<br />
** Luma ist die gewichtete Summe der drei Gammakorregierten Farbwerte R',G',B'<br />
** Damit ist Luma nicht gleich Luminanz<br />
<br />
*'''Brightness'''<br />
** Brightness ist ein Begriff der beschreibt wie stark eine Fläche Licht emmitiert oder sie hell sie erscheint<br />
** Besitzt kein festes Maß und wird daher sehr frei verwendet -> HSL<br />
<br />
== Farbsysteme, Farbräume, reduzierte Farbräume ==<br />
* Die Intensität einer Farbe ist <math> I = \frac{R + G +B}{3} </math><br />
* Wählt man die Intensität konstant mit <math>I=\frac{1}{3}</math> so ergibt sich eine Ebene die den RGB-Farb Würfel Diagonal schneidet und durch die R,G,B Eckpunkte geht<br />
* Jede Farbkoordinate kann auf diese Ebene projeziert werden -> Ermöglicht die Nutzung dieser Ebene als einfache Farbtafel<br />
** Diese Ebene kann dann noch auf die 0RG- Fläche des RGB Würfels projeziert werden ohne das die Ordnung der Farben gestört werden würde -> Der Farbton einer Farbe lässt sich allein durch r und g beschreiben<br />
* in die rg-Ebene können nun alle in RGB - darstellbaren Farben und alles existierenden Farben eingetragen werden<br />
** Danach erkennt man das sich technisch mit dem RGB-System nur ein kleiner Teil der exisiterenden Farben realisieren lässt<br />
<br />
= Das Normvalenz- oder XYZ-System (GF a 76 - 86) =<br />
* Alle Farbwerte sollen durch positive Farbwerte darstellbar sein<br />
** Für Farbmessung von Interesse<br />
** Das XYZ- Dreieck muss den spektralen Kurvenzug voll umschließen<br />
* Eine weitere Forderung ist das die Leuchtdichte als unabhängige Komponete auftreten soll<br />
* Die Fläche des Dreiecks soll so klein wie möglich sein<br />
* Die dadurch berechnbaren Normalvalenzen sind physikalisch nicht erzeugbar -> Die Spektralwertkurven für das System müssen berechnet werden<br />
** Die Berechneten Spektralwertkurven sind stets nichtnegativ -> immer positive Transmissionsgrade und Sensorempfindlichkeiten<br />
[[Bild:NORMXYZ1.JPG]]<br />
* Mit dem XYZ-System kann man nun Farbdreiecke vergleichen und Bewerten<br />
** Abstände, Fehler und Systemeigenschaften sollten aber in einem empfindungsmäßig gleichabständigen Farbraum bewertet werden (u'v'w' und CIELab)<br />
* '''Optimalfarbkörper'''<br />
** Beschreibt die Grenze aller darstellbaren Körperfarben<br />
** Zur Erstellung schneidet man rechteckförmige Stückchen aus dem Spektrum von Idealweißem Licht aus<br />
<br />
== Das UVW-System ==<br />
* Informationsgehalt der Farbe für den Menschen hängt davon ab welche Farbunterschiede er wahrnehmen kann<br />
* Vor allem ist das interessant wenn Bildverarbeitungsprobleme auf der menschlichen Wahrnehmung formuliert sind<br />
* xy-Farbtafel hat starke Unterschiede zwischen örtlichen Abstenden und empfindungsmäßigen Abständen -> ungeeignet<br />
* erste Lösung<br />
** lineare Transformation<br />
** W' -> Helligkeit<br />
** U' -> Rot-Grün Bundheit<br />
** V' -> Gelb-Blau Bundheit<br />
** Ergebnis<br />
*** Wesentlich besseres Darstellung der Empfindung (Faktor 10 gegenüber dem XYZ-System)<br />
* verbesserte Lösung<br />
** verwenden einer nicht linearen Abbildung (Auge wird mit berücksichtigt)<br />
<br />
== L*a*b* oder CIELAB-Raum ==<br />
* Gegenfarbmodell<br />
* empfindungsmäßig gleichabständiger Raum<br />
* Grundsätzlich zur Angabe von Farbabweichungen verwendet<br />
** Geeignet zur Bewertung von Druckern, Monitoren und Abweichungen von Nachfärbungen<br />
* als Farbdifferenzmaß wird der euklidische Abstand benutzt (<1 nicht mehr Wahrnehmbar)<br />
<br />
== L*u*v* oder CIELUV ==<br />
* für additive Mischung vorgesehen<br />
* wie der CIELAB- Raum ein empfindungsmäßiger gleichabständiger Raum<br />
<br />
== YCbCr - Crominanzwertsystem ==<br />
* Entwickelt damit Farbfernsehen und S/W-Fernsehen Parallel betrieben werden konnten<br />
* Crominanzwerte<br />
** sind von Leuchtdichte befreite Werte<br />
** verschwinden für alle unbunten Farben<br />
** Cr= R-Y, Cg = G-Y, Cb = B-Y<br />
** Das System aus CrCbCg und Y ist überbestimmt => Es reicht die Übetragung von Cr , Cb und Y<br />
* Da das Auge auf Helligkeitsunterschiede empfindlicher reagiert als auf Farbunterschiede können die Crominanzwerte mit geringerer Auflösung übertragen werden<br />
<br />
== ΘSY - System ==<br />
* Der Bunttonwinkel Θ berechnet sich aus dem Verhältnis der Crominanzwerte Cb und Cr<br />
* Die Sättigung S ist der Betrag des Vektors CrCb<br />
<br />
== HSI - Farbraum ==<br />
* Intensität: <math> I= \frac{R+G+B}{3} </math><br />
* Sättigung: <math> S = 1 - 3 \cdot min (r,g,b) </math><br />
* Hue: <math> H= \left\{ \begin{matrix}\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B\le G \\ 2\pi -\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B>G \end{matrix}\right . </math><br />
* Raum ist nicht gleichmäßig gefüllt<br />
* bei kleinen Intensitäten I in Buntton und Sättigung Instabil<br />
* Es kann bei Farbmanipulationen dazu führen das es keine Entsprechungen im RGB gibt<br />
** Lösungen:<br />
*** Dachförmige Begrenzung des HSI Raums -> sehr Aufwendig<br />
*** Normieren der Intensitäten -> Bild kann ins dunkle verschoben werden<br />
*** Maximalwert setzen -> Falsche Farbwerte (werden ins unbunte verschoben)<br />
*** proportionales skalieren bis Farbe im RGB-Würfel liegt<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
<br />
== HSL - Farbraum ==<br />
* Gern für Computergrafik verwendet<br />
* einfache Beziehungen<br />
* Die Verwendeten Biegriffe H,S,L entsprechen nicht der Bedeutung in der Farblehre und Form des Raumes<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
* Buntton ist extrem instabil bei kleinen Sättigungen<br />
* Form des Raumes ist unpraktisch<br />
<br />
= Farbmessung (GF 1 - 11) =<br />
<br />
* Farbmessung = Ermittlung der drei zu einer Farbvalenz gehörigen Farbmaßzahlen<br />
* 3 Messmethoden: <br />
** Vergleichsmethode oder Gleichheitsverfahren<br />
** Spektralverfahren<br />
** Dreibereichsverfahren<br />
<br />
== Gleichheitsverfahren ==<br />
<br />
* Vergleiche:<br />
** Vorlage mit additivem Gemisch<br />
** Vorlage mit Farbmusterkarten (DIN-Karten)<br />
* unverzichtbar bei physiologischen Untersuchungen<br />
* aufwendig und bei kleinen Probandengruppen ungenau<br />
* d.h. für technische Messungen ohne Bedeutung<br />
<br />
'''Messbedingungen nach DIN:'''<br />
* helladaptiertes und blendfreies Sehen<br />
* unbunter Messraum<br />
* neutrale Gesichtsfeldumgebung mit gleicher oder etwas kleinerer Leuchtdichte als im Messfeld<br />
* gut ausgeruhtes und neutral gestimmtes Auge<br />
* farbnormalsichtiger Beobachter<br />
<br />
== Spektralverfahren ==<br />
<br />
* zu messende Farbvalenz = Summe spektraler Farbvalenzen<br />
* greift auf gemessene Normspektralwertkurven zurück<br />
<br />
# '''spektrale Messung zur Ermittlung der Farbreizfunktion <math>\varphi (\lambda) </math>'''<br />
#* Selbststrahler: direkte Messung der Strahlungsfunktion <math>\rightarrow \varphi (\lambda)= S (\lambda)</math><br />
#* remittierende Vorlage: Remissionsfunktion der Vorlage messen, d.h. Strahlungsfunktion S ist vorher zu bestimmen und aus <math>\varphi (\lambda)</math> heraus zu rechnen <math>\rightarrow \varphi (\lambda)= \beta (\lambda) \cdot S (\lambda)</math><br />
# '''farbvalenzmetrische Auswertung'''<br />
#* wenn <math>\beta (\lambda)</math> ermittelt wurde, kann jede beliebige (tabellierte) Lichtquelle <math>S^{\ast} (\lambda)</math>eingesetzt werden<br />
#: <math><br />
\begin{bmatrix}<br />
X\\Y\\Z<br />
\end{bmatrix}<br />
= k \cdot<br />
\begin{bmatrix}<br />
\int \bar{x} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{y} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{z} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda<br />
\end{bmatrix}<br />
</math><br />
#* Normierungskonstante k:<br />
#** Selbststrahler: nur Farbwertanteile gefragt, d.h. k ist beliebig<br />
#** Körperfarben: Y für mattweißen Körper = 100, d.h. <math>k=\frac{100}{\int {S(\lambda) \cdot \bar{y}(\lambda) d \lambda}}</math><br />
<br />
'''Messgeometrien:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bildergalerie (45°,8°,Transmission) </span><br />
<br />
* ''45°-Geometrie'': Beleuchtung unter 45° schließt Glanzeinfluss aus <math>\rightarrow</math> Sensor blickt senkrecht auf Probe<br />
* ''8°-Geometrie'': Beleuchtung diffus über Ulbricht-Kugel <math>\rightarrow</math> Sensor blickt unter 8° auf Probe; Messung mit/ohne Glanz möglich<br />
* ''Transmissionsgeometrie'': Probe wird durchleuchtet<br />
<br />
== Dreibereichsverfahren ==<br />
* die drei Farbwerte werden direkt photometrisch gemessen<br />
* Filter und spektrale Empfindlichkeite der Strahlungsempfänger müssen an die spektrale Bewertungsfunktion angepasst sein<br />
* '''Luther-Bedingung:''' <math> \tau_x(\lambda) = \frac{c_x \cdot x(\lambda)}{s_1(\lambda)}</math><br />
** <math> \tau_x(\lambda) </math> ... Filtertransmission<br />
** <math>s_1(\lambda)</math> ... Sensorempfindlichkeit (hier im ersten Kanal)<br />
** <math>c_x</math> ... Gerätekonstante<br />
** Für den Y und Z Kanal ist die Formel analog<br />
* Der notwendige Filter kann gut durch ein Set von Schmalbandigen Filtern realisiert werden<br />
<br />
== Spektralmaskenverfahren ==<br />
<br />
* spezielles Dreibereichsverfahren<br />
* Lichtzerlegung erfolgt mit einem Prisma<br />
* Das zerlegte Lich beleuchtet eine Maske (Papier, Plaste, Metal .... ne richtige echte Maske)<br />
* Messen der spektralen Verteilung (CCD-Zeile)<br />
* Ähnlich dem Spektralverfahren nur das das spektrum bereits im analogen entsprechend gewichtet wird<br />
<br />
== Metamerie ==<br />
* zwei Farbproben die bei einer bestimmten Beleuchtung gleich aussehen können bei einer anderen Beleuchtung ganz anderst aussehen<br />
* Der Metermarie-Index beschreibt diesen durch Beleuchtungswechsel entstehenden Farbwechsel<br />
* KEIN Maß für die Farbkonstantheit sondern für den Unterschied von zwei Proben<br />
* Berechnung erfolgt im L*a*b* Raum <br> <math> M_T = \sqrt {(L_{1T}-L_{2T}+L_{2B}-L_{1B})^2 +(a_{1T}-a_{2T}+a_{2B}-a_{1B})^2+(b_{1T}-b_{2T}+b_{2B}-b_{1B})^2 } </math><br />
** T ... Testlicht<br />
** B ... Bezugslicht<br />
** 1,2 ... Probennummern<br />
<br />
= Klassifikation von Messaufgaben (GF 82 - 86) =<br />
<br />
# Messung von objektiven Eigenschaften, die sich in der Veränderung spektraler Charakteristika niederschlagen<br />
#* vordergründig ist Zusammenhang zwischen Veränderungen in den physikalischen Eigenschaften von Interesse (z.B. Waferinspektion)<br />
#* Zusammenhang sollte eindeutig und von hinreichender Empfindlichkeit sein<br />
#* Wahrnehmung unterschiedlicher Farben eher Nebeneffekt<br />
# Überwachung der Stabilität von farblichen Erscheinungen<br />
#* ist bei einer oder mehreren Beleuchtungen zu überwachen<br />
#* absolute Farbmessung nicht nötig; "Anlernen" auf Farben genügt<br />
#* Abstände im Farbempfinden müssen sich in gleicher Weise in Veränderungen der Sensorsignale wiederspiegeln<br />
# absolute Farbmessung<br />
#* d.h. Ermittlung der korrekten Farbvalenz unter beliebigen Messbedingungen<br />
#* Spektralwertkurven müssen realisiert werden<br />
# Messung des spektralen Remissions- und/oder Transmissionsverhaltens von Materialien<br />
#* ausschließlich spektrale Messverfahren<br />
#* Messung der Strahlungsfunktion und der remittierten Leistungsdichte<br />
#* Berechnung der Farbvalenz bei beliebiger Beleuchtung und des Metamerie-Index<br />
<br />
'''steigende Ansprüche mit steigender Nummerierung'''<br />
<br />
= Einfache Farbkalibrierung (GF 16 - 41) =<br />
* Farben sollen möglichst exakt Wiedergegeben werden<br />
<br />
== Ausgleich von Beleuchtungseinflüssen ==<br />
* Körperfarben werden durch ihre Remmision bestimmt <math> \beta </math><br />
* Bei unterschiedlicher Beleuchtung sehen Farben unterschiedlich aus aber das Auge kann sich an die Beleuchtung adaptieren<br />
** Funktioniert bei Fotos aber nicht -> Beleuchtungsausgleich ist wichtig<br />
** Bei Farbvergleich noch viel mehr<br />
** Wird realisiert durch Weißabgleich (auf integraler Farbebene nicht möglich )<br />
* Direkte Vermessung der spektralen Eingenschaften der Kamera nicht möglich (Da Werte in Kamera bereits verrechnet werden um z.B. die negativen Anteile der Spektralkurven zu realisieren)<br />
** sehr Aufwendig (Kamera auseinanderbasteln um an die echten werte zu kommen + das durchgehen durch das Spektrum in kleinen Schritten)<br />
* Daher Verwendung von Testfarben<br />
** Führt auf Lösung eines linearen Gleichungssystem<br />
** Für menschliches empfinden -> Optimieren im CIELAB-Raum<br />
* Vorsicht bei nichtlinearen Funktionen zur Farbkalibrierung -> Kann bei zu wenig Testfarben zu total falschen Ergebnissen führen !!<br />
<br />
= Color Management (F CM 1 - 20) =<br />
* verschiedene Geräte können verschiedenen Farben darstellen<br />
* verschiedene Geräte verwenden andere Grundfarben zum mischen<br />
* Mit Hilfe von Profilen (Tabellierung der Farbwerteumrechnungen) wird eine Konvertierung der Farben vom Geräteraum in den CIELab Raum bzw umgekehrt durchgeführt<br />
* in den Profilen wird auch vermerkt welche Farben darstellbar sind und welche nicht<br />
* Somit kann man eine "Druckvorschau" auch auf einem Monitor erreichen (natürlich nur für Farben die auf beiden Geräten dargestellt werden können)<br />
** Jedes Mapping der Farben (Gamut-Mapping stellt somit einen Kompromiss dar)<br />
**# Perceptual (Die Farbbeziehungen untereinander werden erhalten) Komprimierung des Gamuts bis er in den zur Darstellung verwendeten passt<br />
**# Colometrisch -> Exakte Reproduktion aller in beiden Gamuts darstellbaren Farben<br />
**## relativ -> weiß wird auf weiß abgebildet und alle anderen Farben relativ dazu<br />
**## absoult farbmetrisch<br />
**# Saturation, alle Farben außerhalb des Zielgamuts werden zugunsten der Sättiung verändert<br />
* Kalibrierung -> Versetzen des Gerätes in einen definierten, reproduzierbaren Zustand<br />
* Charakterisierung -> Modellierung eines Gerätes welches sich ein einem stabilen definierten Zustand befindet<br />
<br />
= Kameras (GF_Ka 1 - 12) =<br />
<br />
'''Einsatzfelder:'''<br />
* ortsaufgelöste Messung von Farbe<br />
* Aufnahme und Wiedergabe von True-Color Bildern<br />
* Aufnahme farbiger oder mehrkanaliger Bilder für die Verarbeitung/Analyse (Qualitätssicherung)<br />
* Photogrammetrische Anwendungen (Lösung des Korrespondenzproblems)<br />
* Radiometrische Anwendungen (Messen im Spektralbereich)<br />
<br />
'''Dreibereichsmessung:'''<br />
* setzt die Trennung von drei sich überlappenden Spektralbereichen voraus, die dann wellenlängenabhängig zu bewerten und zu integrieren sind<br />
<br />
== Dreichip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* optische Kanaltrennung und Bewertung<br />
* beste Bildqualität, da hohe Auflösung in allen drei Kanälen<br />
* keinen örtlichen Versatz der Pixel in den drei Farbauszügen<br />
* Filter einfacher und präziser zu realisieren<br />
* befinden sich z.B. als dichroitische Spiegel auf den Strahteilerprismen<br />
<br />
<span style="color:#ee0000;"> \\ Hot-Mirror-, Cold-Mirror-Korrektur????</span><br />
<br />
== Einchip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: doppelte Anzahl grüner Pixel wegen Schärfe, MTF des Auges </span><br />
<br />
* örtliche Kanaltrennung und Bewertung<br />
* Streifen- oder Mosaikfilterstrukturen auf den einzelnen Pixeln zur örtlichen Signaltrennung<br />
* 3 oder 4 unterschiedliche spektrale Auszuüge zur Erzeugung der Farbinformation<br />
* Matrix selbst kann Interline- oder Frame-Transfer-Matrix sein<br />
* kostengünstiger und kleiner als Dreichip-Kameras<br />
* Probleme:<br />
** Farbvalenzen aus örtlich versetzten Auszügen (z.B. Farbsäume an Kanten)<br />
** nicht korrigierbare Fehler aus Nichtlinearitäten und Dunkelsignalen bei der Bildung von Mischsignalen<br />
<br />
'''generelle Anforderungen an die Signalverarbeitung:'''<br />
<br />
* primäre Kamerasignale stellen keine farbmetrische Schnittstelle zur Verfügung, d.h. alle Bewertungsfunktionen sind nicht-negativ (Spektralwertkurven fordern aber negative Wichtungen)<br />
* je nach realisierten Filtern und Genauigkeitsansprüchen <math>\rightarrow</math> lineare Matrizierung (meist Kameraintern) oder komplexere Approximation<br />
* bei hohen Genauigkeitsansprüchen <math>\rightarrow</math> Umgehung der Kamerainternen Matrizierung, weil Verstärkungsfaktoren, Toleranzen, Temperaturdrift, Langzeitstabilität etc. nicht bekannt sind<br />
* insgesamt geringe Nichtlinearitäten der CCD's können in den Ansteuerbereichen der einzelnen Kanäle zu wesentlichen Fehlern führen:<br />
** Farbvalenz ändert sich kontinuirlich mit der Shutterzeit<br />
** Pixelweise DSNU- (Dunkelsignalungleichförmigkeit) und PRNU- (Hellsignalungleichförmigkeit) Korrektur vor Erzeugung der Farbvalenz erforderlich, da sich Festmusterrauschen nicht nur auf Intensität sondern auch auf Farbart auswirkt<br />
** Dunkelsignal verdoppelt sich alle 7K, Gleichanteil wird aber geklemmt<br />
** Lichtquellentyp und Langzeitverhalten wirken sich nicht nur Intensität sondern auch auf Farbtemperatur aus<br />
<br />
'''4 spektrale Bereiche:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* vorteilhaft zur Erzeugung von Farbdifferenzsignalen für die TV-Kompatibilität<br />
* im Field-Integration-Mode werden Mischsignale gebildet, die die erforderliche Signalkorrektur für hohe Ansprüche behindern<br />
* Nichtlinearität der Ausgangsverstärker wirkt sich auf Korrektur der primären Mischsignale aus<br />
<br />
== Sequentielle Einchip-Kamera ==<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* zeitliche Kanaltrennung und Bewertung<br />
* relativ genaue Approximation der Spektralwertkurven möglich<br />
<br />
== Elektrisch steuerbare Filter ==<br />
<br />
* über die Wellenlängenabhängigkeit der Eindringtiefe der Photonen und die Steuerbarkeit der Tiefe der Potentialmulden der sensoren lassen sich steuerbare spektrale Empfindlichkeiten erzeugen<br />
<br />
= Verarbeitung von Farbbildern (1 - 31) =<br />
* Das unabhängige verarbeiten der Farbkanäle eines Farbbildes führt zu Nebeneffekten wie Farbsäume<br />
* Die höhere Vielfalt des mehrdimensionalen Raumes von Farbbildern kann Vorteilhaft genutzt werden für Pixelklassifikation, Segmentierung <br />
* Abstände, Mittlere Werte und örtliche Veränderungen sind in empfindungsmäßig gleichabständigen Räumen zu definieren und zu bewerden<br />
<br />
== Histogramme und Statistiken für Farbbilder ==<br />
* Farbbilder liefern dreidimensionale Häufigkeitsverteilungen im Farbraum → können als Approximation der entsprechenden 3D-Dichten verwendet werden<br />
* statistische Zusammenhänge zwischen den Kanälen werden in mehrdimensionalen Dichten betrachtet<br />
** Für Handauswertung meist nur 2D-Dichten, wegen der Übersicht<br />
** Für maschinelle Auswertung können diese dichten auch dreidimensional werden<br />
** für die parametrische Darstellung der Cluster werden meist multivariante Gaußverteilungen eingesetzt<br />
*** Einr Gaußverteilung ist für die Beschreibung eines Bildes mit mehreren Objekten nicht geeignet<br />
*** Die Kovarianzmatrix einer solchen "Approximation" kann aber gut zur Einschätzung der Streuung und der Mittelwerte in dem Bild eingesetzt werden<br />
<br />
=== Histogramm - Modifikationen ===<br />
* Contrast Streching, Polygonal Image Scaling, Histogram-Equalisation Siehe [[Grundlagen der Bildverarbeitung und Mustererkennung#homogene Punktoperationen|Grundlagen der Bildverarbeitung]]<br />
* Manipulation kann in verschiedenen Farbräumen ausgeführt werden (RGB,HSI,...)<br />
** In nicht empfindungsmäßig gleichabständigen Räumen muss die Transformation nicht unbedingt zum Ziel führen<br />
==== Manipulation im Farbraum RGB ====<br />
* ist der Farbraum in dem die Daten häufig vorliegen<br />
* Wirkung kann auf Grund der starken korrelation der RGB Werte bei geringen Sättigungen ausbleiben<br />
* Farbverfälschung wenn einzelne Kompontenen unabhänig von einander behandelt werden<br />
* hohes apriori-Wissen notwendig<br />
* wenn Falschfarbdarstellung gewünscht ist kann dies das mittel der Wahl sein<br />
<br />
==== Manipulationen im Farbraum HSI ====<br />
* unproblematisch in Bezug auf Farbverfälschungen<br />
* Zielsetzungen können sich einfacher beschreiben lassen (ähnelt der Beschreibung von Farbe durch den Menschen)<br />
* unabhängige Komponente (Intensität)<br />
* Kontrastverbesserung durch Sättigungsausgleich ohne Farbveränderung möglich<br />
* Stabilitätsprobleme nahe den unbunten Farben<br />
# '''Ausgleich des Intensitätshistogramms'''<br />
#* Werte möglich die keine entsprechung mehr im RGB haben → müssen geeignet herruntergerechnet werden<br />
#* bei kleinen Intensitäten sind die Bunttöne instabil → ausschließen von Veränderungen<br />
# '''Sättigungsausgleich'''<br />
#* Modifikation der Sättigung unter Beibehaltung des Bunttones<br />
#* Bei kleinen Sättigungen und kleinen Intensitäten ist der Buntton instabil → Ausschließen<br />
#* Histogramm über alle Bunttöne ist häufig verschmiert → besser Histogramm über Buntton Segmente<br />
# '''Bunttonausgleich'''<br />
#* Ziel sind Farbfalschbilder um Objekte besser unterscheiden zu können<br />
#* bei zu großen Buntton Änderungen wird die Interpretierbarkeit nur bei homogenen Flächen verbessert, meist wird sie eher verschlechtert<br />
#* Unsicherheit des Bunttons → bei geringen Sättigungen und Intensitäten ist der Buntton auszuschließen<br />
<br />
== segmentgesteuerte Farbvalenztransformationen ==<br />
* Globale Statistiken werden häufig durch nicht interressante Objekte dominiert<br />
* Ausweg ist das Betrachten von Ausschnitten und anwenden der Transformationen auf die Ausschnitte<br />
* erfordert zu erst das Segmentieren des Bildes<br />
<br />
= Referenzfreie Farbadaption auf Basis des 3D-Histogramms (HuS 32 - 39 ) =<br />
* unter bestimmten umständen kann auf eine Kalibrierung der Kamera mittels Referenzfarben verzichtet werden<br />
* Zur Korrektur soll die parametrische Approximation der 3D-Histogramme durch multivariante Gaußverteilungen genutzt werden<br />
== Vorraussetzungen für die Anwendbarkeit ==<br />
* Strukturierte Szene mit mehreren ntürlichen Objekten, die gleichmäßig über den Bunttonwinkel verteilt sind und durchschnittlichen Sättigungsgrad aufweisen<br />
* Langgestreckter SW-Prozess im Vergleich zum Rot-Grün und Blau-Gelb Prozess<br />
<br />
== Vorgehensweise ==<br />
* Korregieren von "vermutlichen" Abweichungen des Bildes in der Unbuntheitsachse<br />
* Dazu Ermitteln der Hauptachsen mit PCA<br />
* Drehen der Hauptachse in den SW-Prozess<br />
* Rücktransformation und Darstellung<br />
<br />
= Histogrammbasiertes Farbmatching(1 - 15) =<br />
* Histogramme sind im 2D Bild invariant gegenüber Rotation, Translation und Maßstab (wenn die Angaben relativ erfolgen !)<br />
* Histogramme sind auch relativ stabil gegenüber moderaten Verdeckungen und 3D-Rotation<br />
* Grobe Quantisierung der Histogramme um Fehlertoleranz zu erhöhen<br />
* Damit können Histogramme zur Objekterkennung eingesetzt werden → Bezeichnet als Color Indexing<br />
<br />
== uniformes Binning ==<br />
* einteilen der Farben in ein gleichverteiltes Histogramm<br />
* Suche in einem Bild den Ausschnitt welcher eine minimale Distanz zum Referenzbild hat<br />
* Als Abstandsmaß verwendet werden die Histogramme genutzt<br />
** Summe der Quadratischen Differenzen (Histogramme als Vektoren betrachtet und dann den euklidischen Abstand berechnet ohne Wurzel)<br />
** Earth Movers Distance (Berechnen was sich wohinverteilt haben könnte ... erfordert die Lösung des Transportproblems)<br />
* einfach aber die Bins ändern sich Sprunghaft, vor allem dann wenn Farben knapp an den willkürlichen Bingrenzen liegen<br />
<br />
== Unscharfe Chroma-Orts-Histogramme ==<br />
* Nachteile des uniformen Binning sollen überwunden werden<br />
* Alle Pixel bekommen eine unscharfe Klassenzugehörigkeit (Binnzugehörigkeit) je nach Abstand zum entsprechenden Binnmittelpunkt (wie bei [[Softcomputing|Fuzzy-C-Means]])<br />
** Ein Parameter ermöglicht dabei die Verunschärfung einzustellen (von total unscharf bis zum festen Binning)<br />
* Auch der absolute Ort der Segmente (aus denen die Histogramme erstellt werden) soll mit verwendet werden<br />
** Dazu wird das Bild in entsprechende Bereiche geteilt (8x8,16x16,...)<br />
** Alle Blöcke werden durchnnummeriert<br />
** Auch hier kommt es zu harten Umbrüchen wenn Pixel knapp an den Grenzen liegen → auch hier verunschärfen<br />
** Welche Indizees haben die Nachbarn? (Nachbarschaft in den Indizees der Blöcke heißt nicht gleich 2D-Nachbarschaft)<br />
<br />
== Cluster mittels Graphenansatz ==<br />
* Ziel ist es:<br />
** Sprunghafte Änderung der Binns zu verhindern<br />
** wenige Merkmale zu verwenden<br />
** Eng beieinander liegende Maxima trotzdem unterscheiden zu können<br />
* Verwendete Bilddaten:<br />
** Farbwinkelhistogramm, wenn Sättigung der Farben ausreichend ist<br />
** Intensitätsdiagramm, wenn Sättigung der Farben zu gering wird<br />
* Vorgehen:<br />
** Jeder Wert im Histogramm zeigt auf den Größten in seiner Nachbarschaft<br />
** Das Maximum zeigt auf sich selbst → Wird Merkmal<br />
** Weiteres Merkmal ist die Fläche die zum Maximum gehört (Nachbarn die direkt bzw. indirekt auf das entsprechende Maximum zeigen)<br />
* Match:<br />
** Finde ein Tupelpaar (Maxima in Referenzhistogram und Suchhistogram mit dem geringsten Abstand)<br />
** Ziehe gemeinsame Fläche von jedem Tupel des Paares ab<br />
** summiere gemeinsame Fläche (?)<br />
** Wiederhole bis sich keine Tupelpaare mehr bilden lassen<br />
** beziehe die laufende Summe auf das Maximum der Summe der ursprünglichen Flächen<br />
<br />
= Störunterdrückung (SU 1 - 16) =<br />
<br />
= Kantendetektion in Farbbildern (1 - 21) =<br />
<br />
= Farbpixelklassifikation (Farbpixelklassifikation 1 - 21) =<br />
<br />
= Clusterverfahren (Farbpixelklassifikation 19 - 45) =<br />
<br />
= Segmentierung (Seg 1 - 8) =<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Grundlagen_der_Farbbildverarbeitung&diff=6982Grundlagen der Farbbildverarbeitung2009-03-15T10:55:33Z<p>DarkGhost: /* Referenzfreie Farbadaption auf Basis des 3D-Histogramms (HuS 32 - 39 ) */</p>
<hr />
<div>Link zum [http://www.zbs-ilmenau.de/intern/vip-toolkit/index.php Vip toolkit]<br />
= Einführung (GF_a 8 - 47) =<br />
<br />
== Geschichtliches zur Farbe ==<br />
<br />
=== Newton ===<br />
<br />
* 1672: New Theory about Light and Colours<br />
** Sonnenlicht = Mischung einzelner Farben<br />
** Spektralfarben sind objektive Eigenschaft des Lichtes<br />
<br />
[...]<br />
<br />
=== Goethe ===<br />
<br />
[...]<br />
<br />
== Begriff der Farbe ==<br />
<br />
* '''Farbe im engeren Sinn, stellt eine spezielle menschliche Sinneswahrnehmung dar'''<br />
* <math>\Phi_i = \int_{\Delta \lambda_i} \varphi_{\lambda} (\lambda) d \lambda</math><br />
* Leistungsdichte <math>\phi (\lambda)</math> stellt dagegen den Farbreiz dar, der die Farbempfindung hervorruft<br />
* Vektoren <math>\underline \Phi</math> sind je nach Dimension mehr oder minder genaue Approximationen des Farbreizes<br />
<br />
* Orientierung am menschlichen visuellen System und die Betrachtung psychologischer und physiologischer Grundlagen sind von Interesse:<br />
** zur richtigen Bewertung der Schwierigkeiten und Herausforderungen bei der Schaffung technischer Lösungen<br />
** zur Anpassung technischer Lösungen der Bildwiedergabe an das visuelle System<br />
** zur Nutzung optimaler Naturprinzipien für technische Lösungen<br />
** weil technische Systeme im allgemeinen auf dem inneren Modell des Menschen von der Welt beruhen und dieses Modell in hohem Maße durch den visuellen Kanal des Menschen beeinflusst ist<br />
** weil optoelektronische Sensoren, Bildverarbeitung und Bildanalyse wichtige Schnittstellen zwischen Mensch und Maschine darstellen<br />
**weil viele Objekteigenschaften durch visuelle Eindrücke beschrieben werden<br />
<br />
* menschliches Auge kann ca. 100 Graustufen / ca. 300 000 Farben unterscheiden<br />
<br />
* Drei grundsätzliche Anwendungen von Farbinformation:<br />
** Pseudokolorierung<br />
** Falschfarbendarstellung<br />
** Echtfarbdarstellung (True Color) <math>\rarr</math> hier Schwerpunkt<br />
<br />
== Farbtäuschung ==<br />
<br />
* Zuordnung zwischen Physik und Wahrnehmung nur eindeutig wenn bunte Dinge isoliert betrachtet werden<br />
* Werden bunte Objekte in bunte Umgebungen eingebettet/bewegt, dann können abweichende Farbwahrnehmungen auftreten, so genannte Farbtäuschungen<br />
* es existieren unterschiedliche Arten solcher Täuschungen:<br />
** ''Farbinduktion oder simultaner Farbkontrast'' (Farbe wird durch ihre Umgebung modifiziert)<br />
** ''Farbkonflikt'' (es konkurrieren verschiedene Sehinformationen miteinander)<br />
** ''Subjektive Farben'' (es werden bunte Farbtöne wahrgenommen, die nicht vorliegen)<br />
<br />
'''Simultaner Farbkontrast:'''<br />
* erstmals 1839 beschrieben<br />
* wo der Effekt entsteht (Auge, Cortex) ist unklar<br />
<br />
'''Farbinduktion:'''<br />
* bei kleinteiligen, sich wiederholenden Strukturen erfolgt Angleichung<br />
* kann zur Rauschunterdrückung oder zur Unterdrückung von Feintexturen zugunsten der Erkennung größerer Objekte wichtig sein<br />
<br />
'''Farbkonflikt:'''<br />
* Formen und Strukturen konkurrieren mit Farben ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf White'sche Illusion])<br />
<br />
'''Subjektive Farben:'''<br />
* durch Bewegung ist es möglich Farben zu erzeugen die ursprünglich nicht vorhanden waren ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf Drehwurm in Farbe])<br />
<br />
== Farbwahrnehmung beim Menschen ==<br />
<br />
[...]<br />
<br />
=== Rezeptive Wahrnehmung ===<br />
* 1807 stellte Young die Hypothese auf das Farbsehen auf drei Arten von Sinneszellen beruht (rout,grün,blau)<br />
* erst 1964 konnten dies bewiesen werden, durch die Messung der Absorptionsspektren<br />
*[[Datei:Pdt-kurven.svg]]<br />
<br />
=== Postrezeptive Wahrnehmung ===<br />
* Mit dem 3 Farbenmodell konnten einige psychologische Erscheinungen nicht erklärt werden<br />
** Es werden 4 Farben als besonderst "rein" empfunden (Rto, Geln,Grün, Blau)<br />
** Unbunte Farben werden werden als das fehlen von Farben wahrgenommen<br />
** Schwarz schein gleichberechtigt zu Weiß<br />
** keine wahrgenommene Farbe erscheint zugleich rötlich und grün<br />
* das führte zur Gegenfarbentheorie die anfangs nur Psychologisch begründet war 1958 aber physiologisch Nachgewiesen werden konnte<br />
** Rot - Grün<br />
** Gelb - Blau<br />
** Schwarz - Weiß<br />
* → CIELab-Farbraum<br />
<br />
=== Kortikale Kodierung ===<br />
* Weder die 3 Farbentheorie noch die Gegenfarbentheorie beschreiben die bewusste Wahrnehmung des Menschen<br />
* Deshalb erweitertes Modell<br />
** Farbton / Buntton beschreibt die als besonderst rein empfundenen Spektralfarben<br />
** Sättigung beschreibt wie stark eine Farbe verblasst ist<br />
** Helligkeit beschreibt, wie hell oder dunkel eine Farbe ist<br />
* Wo/Wie genau die neuronale Verarbeitung erfolgt, ist noch nicht sicher belegt<br />
<br />
== Die Ordnung in der Welt der Farben ==<br />
* Newton kannte die Wellenlänge noch nicht → er ordnete die Farben nach dem Regenbogen<br />
* Goethe verwendete das Gegenfarbenmodell<br />
* Munsell schlug 1905 ein Farbordnungssystem vor bei dem alle Abstände zwischen den Farben Empfindungsmäßig gleich sind<br />
** führt zu einem geometrisch nicht regelmäßigen Körper<br />
<br />
== Das Modell der Farbe ==<br />
* '''Definition'''<br />
** Farbe ist diejenige Gesichtsempfindung eines dem Auge strukturlos erscheinenden Teils eines Gesichtsfeldes durch die sich diser Teil bei einäugiger Betrachtung mit unbewegtem Auge von einem gleichzeitig gesehenen ebenfalls strukturlos angrenzendem Bezirk allein unterscheidet (unbunte Farben: Schwarz, Weiß und Graustufen, bunte Farben: Helligkeit; Buntheit setzt sich aus Buntton und Farbsättigung zusammen)<br />
** Farbe ist durch Helligkeit, Buntton, Sättigung eindeutig bestimmt → 3D Modell<br />
*** drei linear unabhängige Größen<br />
*** Additive Mischung zur Reproduktion von Farbe (aus Rot, Grün, Blau)<br />
*** drei linearunabhängige Größen spannen immer einen Raum auf → Rot,Grün und Blau werden die Achsen dieses Raumes<br />
<br />
=== Farbvalenz ===<br />
* Mit unserem Modell läßt sich jede Farbe als linearkombination unserer drei Basisvektoren aufschreiben<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
** <math> \vec F</math> ... Farbvalenz<br />
** <math> \vec r, \vec g, \vec b </math> ... die drei Basisvektoren die den Raum aufspannen (Rot, Grün und Blau)<br />
** <math> R,G,B, |\vec F| </math> ... die Farbwerte<br />
** <math> \vec r \cdot R, \vec g \cdot G, \vec b \cdot B </math> ... die drei Primärvalenzen<br />
* Ermittelt werden die Farbwerte mit Hilfe der Vergleichsmethode<br />
** Eine Person vergleicht ein Target mit einer Farbe die aus den drei Primärvalenzen gemischt wird<br />
** wenn die Empfindung der beiden Farben gleich ist, dann notieren wir die Werte<br />
* Innere Farbmischung<br />
** das Target wird mit weißen Licht beleuchtet und wir drehen nur an dem Farbmischgerät<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
* Äußere Farbmischung<br />
** Wir beleuchten das Target mit farbigen Lichte<br />
**<math> \vec F+ B \cdot \vec b = R \cdot \vec r + G \cdot \vec g \rightarrow \vec F = R \cdot \vec r + G \cdot \vec g - B \cdot \vec b</math><br />
<br />
=== Farbreizmetrik ===<br />
* Die Farbreizfunktion <math> \varphi_\lambda</math> beschreibt die spektrale Zusammensetzung der Farbempfindungen<br />
*# Selbstleuchtende Objekte<br />
*#* <math> S_\lambda (\lambda)</math> beschreibt die spektrale Verteilung der Quelle<br />
*#* Wahrnehmung: <math> \varphi_\lambda = S_\lambda</math><br />
*# Auflicht Vorlagen<br />
*#* <math>\beta_\lambda(\lambda)</math> beschreibt den spektralen Remisionsgrad der Vorlage<br />
*#* Wahrnehmung: Licht reflektiert von der Vorlage <math> \varphi_\lambda = S_\lambda \cdot \beta_\lambda</math><br />
*# Durchlichtvorlagen<br />
*#* <math>\tau_\lambda(\lambda)</math> spektraler Transmissionsgrad der Vorlage<br />
*#* Wahrnehmung von Licht welches die Vorlage durchdrungen hat <math>\varphi_\lambda= S_\lambda \cdot \tau_\lambda</math><br />
* Damit haben folgende Faktoren Auswirkung auf die Wahrgenommene Farbe<br />
*# Die Beleuchtung des Objektes (Spektrale Zusammensetzung des Lichtes der Lampe)<br />
*# Das Remmisionsverhalten der beleuchteten Oberfläche<br />
*# Die wellenlängenabhängige Empfindlichkeit der drei Zapfen des Auges<br />
* Es besteht die Möglichkeit die pdt Kurven direkt zur Beschreibung des Farbempfindens zu nutzen<br />
* Die Farbwerte könnte man dann wie folgt ermitteln: <math> \left(\begin{matrix}P\\D\\T\end{matrix}\right)=k\int_{380\mathit{nm}}^{780\mathit{nm}}\varphi (\lambda )\cdot \left(\begin{matrix}p(\lambda )\\d(\lambda )\\t(\lambda )\end{matrix}\right)d\lambda </math><br />
* Für die technische Darstellung von Farbe werden allerdings R,G,B werte benötigt<br />
* Die dafür notwendigen Spektralwertkurven können mit Hilfe der Vergleichsmethode ermittelt werden<br />
* Man erhält damit folgende Kurven<br />
[[Datei:SpektralwertfunktionenRGB.jpg]]<br />
* Mit der gleichen Formel wie bei der pdt Kurve lassen sich nun die R,G,B Werte rechnerisch ermitteln<br />
<br />
== Farbanalyse, Zusammenhang mit der Farbwidergabe ==<br />
* Das Kammera - Monitor System soll die Farbe exakt wiedergeben<br />
* Der Monitor verwendet EBU Phosphore für die Farbdarstellung<br />
** haben selbst Spektralwert kurven => keine Monochromatischen Lichter mehr<br />
* Die notwendigen spektralwertkurven die die Kamera realisieren muss um die Bilder auf dem Monitor exakt darzustellen lassen sich mit Hilfe der pdt Kurven herleiten (Über forderung der Gleicheit der Farben)<br />
* Sie besitzen stark negative Anteile => Auch die Filter der Kamera müssten negative Transsmissionsgrade besitzen<br />
** technisch ist das nicht möglich<br />
* es bleibt also nur die Möglichkeit die notwendigen Parameter zur Ansteuerung des Monitors aus positive one-peak Kurven zu berechnen<br />
<br />
== Subtraktive Farbmischung ==<br />
* Die Subtraktive Farbmischung lässt sich auf die Multiplikation der Transmissionsgrade zurückführen (ein Filter lässt 50% rotes licht durch, wenn man zwei dieser Filter hintereinander legt, dann geht nur noch 25% rotes Licht durch die Anordnung (0.5*0.5 = 0.25) )<br />
* wenn <math> \tau_0 </math> die Transmission eines Filters für die normierte Dicke 1 und die normiert Dichte 1 ist dann kann man<br />
** mit dem Lambertschen Absorbtionsgesetzt die Absortption von dickern/düneren Material berechnen <br> <math> \tau = [ \tau_0]^w </math><br />
*** w ... Dicke des Materials im Verhältnis zum norm Material<br />
** mit dem Beerschen Gesetz die Transmission von Meterial mit anderer Dichte berechnen <br><math> \tau = [ \tau_0]^c </math><br />
*** c... Das Verhältnis der neuen zur alten Dichte<br />
** kann man auch kombinieren zu (Lambert-Beersches Gesetz)<br />
** <math> \tau = [ \tau_0]^{c \cdot w} </math><br />
* Da sich die Transmission Multiplikativ zusammensetzt wird auch gerne mit dem logarithmus der Transmission gerechnet (optische Dichte)<br />
**<math> D = - lg \tau = lg \frac{1}{\tau}</math><br />
** Damit vereinfacht sich das Lambert-Beersche gesetz zu: <math> D = c \cdot w \cdot D_0</math><br />
* selbstverständlich sind die Transmission <math>\tau</math> und die optische Dichte D von der Wellenlänge abhänig ... zur Übersichtlichkeit wurde das in den Formeln nur weggelassen<br />
* Bei einem Papierbild kommt zu dem Filter noch die Reflexion an der Farboberfläche und an der Papieroberfläche<br />
** Beachte das Licht was an der erste Schicht wegreflektiert wird kann icht tiefer eindringen. Nur noch <math> (1-\beta)*S </math> dringt an Licht durch den ersten Filter!<br />
*** <math> \beta </math> ... Remmisionsgrad der ersten Farbe<br />
*** <math> S </math> ... Spektrale Verteilung der Lichtquelle<br />
<br />
= Farbmetrische Schnittstellen - Farbräume (GF a 49 - 55) =<br />
<br />
<pre><br />
Unterschiedliche bildgebende Systeme<br />
z.B. Farbkameras<br />
Farbscanner<br />
Spezialkameras<br />
</pre><br />
'''Widerspruch''' <math>\updownarrow</math> Farbmetrische Schnittstelle<br />
<pre><br />
Unterschiedliche Bildwiedergabesysteme<br />
"True-Color-Darstellung"<br />
- unterschiedliche Monitore, Beamer, Drucker etc.<br />
</pre><br />
<br />
== Leuchtdichte (Luminanz) ==<br />
<br />
* Luminanz Y ist die Strahlungsleistung, bewertet mit der spektralen Empfindlichkeitsfunktion des Auges für das Hellempfinden<br />
* Y ist Leistungsproportional, wenn Lichtzusammensetzung (Leistungsdichte <math>\Theta (\lambda))</math> konstant bleibt<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* Leuchtdichte berechnet sich nach dem ''Abneyschen Gesetz'':<br />
: <math> Y = L = k \cdot \underline L^T \cdot \underline F </math><br />
:* <math>\underline L^T - </math> Leuchtdichtebeiwert: gibt an wie groß der Beitrag jedes Farbwertes der Farbvalenz zum Helleindruck ist, abhängig vom gewählten Farbwiedergabesystem<br />
* Leuchtdichte L <math>\ne</math> Intensität I<br />
: <math> I = \frac 1 3 (R+G+B)</math><br />
<br />
* die perzeptuelle Antwort unseres Auges auf die Leuchtdichte wird Helligkeit (Lightness) genannt<br />
: <math><br />
L^{\star} = \begin{cases}<br />
116 \cdot \sqrt [3] {\frac Y {Y_n}} -16, & \text{wenn } \frac Y {Y_n} > 0{,}008856\\<br />
903{,}3 \cdot {\frac Y {Y_n}}, & \text{wenn } \frac Y {Y_n} \le 0{,}008856<br />
\end{cases}<br />
</math><br />
<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: Eine Quelle die nur 18% der Luminanz einer Referenz hat, erscheint uns immer noch halb so hell wie die Referenz </span><br />
<br />
== Gammakorrektur und Luma ==<br />
* '''Gammakorrektur:'''<br />
** Aufgrund der Ansteuerung von CRT Monitoren und der verwendeten Phosphore ergibt sich ungefähr eine quadratische Abhängigkeit der Luminanz vom Videosignal<br />
** Die Luminaz der drein einzelnen Farbkanäle muss den gleichen Verlauf aufweisen. Sie dürfen sich nur in ihren Maximalwerten unterscheiden!<br />
*** Sonst ist es nicht möglich die Helligkeit zu ändern und dabei die Farbe konstant zu halten<br />
** Die Gammakorrektur sorgt dafür das die Farbwiedergabe auf dem Monitor linear verläuft und nicht quadratisch<br />
*** Notwendig damit wir die gleich Wahrnehmung erzielen können als währe das Kamera-Monitor System nicht vorhanden<br />
<br />
*'''Luma:'''<br />
** Luma ist die gewichtete Summe der drei Gammakorregierten Farbwerte R',G',B'<br />
** Damit ist Luma nicht gleich Luminanz<br />
<br />
*'''Brightness'''<br />
** Brightness ist ein Begriff der beschreibt wie stark eine Fläche Licht emmitiert oder sie hell sie erscheint<br />
** Besitzt kein festes Maß und wird daher sehr frei verwendet -> HSL<br />
<br />
== Farbsysteme, Farbräume, reduzierte Farbräume ==<br />
* Die Intensität einer Farbe ist <math> I = \frac{R + G +B}{3} </math><br />
* Wählt man die Intensität konstant mit <math>I=\frac{1}{3}</math> so ergibt sich eine Ebene die den RGB-Farb Würfel Diagonal schneidet und durch die R,G,B Eckpunkte geht<br />
* Jede Farbkoordinate kann auf diese Ebene projeziert werden -> Ermöglicht die Nutzung dieser Ebene als einfache Farbtafel<br />
** Diese Ebene kann dann noch auf die 0RG- Fläche des RGB Würfels projeziert werden ohne das die Ordnung der Farben gestört werden würde -> Der Farbton einer Farbe lässt sich allein durch r und g beschreiben<br />
* in die rg-Ebene können nun alle in RGB - darstellbaren Farben und alles existierenden Farben eingetragen werden<br />
** Danach erkennt man das sich technisch mit dem RGB-System nur ein kleiner Teil der exisiterenden Farben realisieren lässt<br />
<br />
= Das Normvalenz- oder XYZ-System (GF a 76 - 86) =<br />
* Alle Farbwerte sollen durch positive Farbwerte darstellbar sein<br />
** Für Farbmessung von Interesse<br />
** Das XYZ- Dreieck muss den spektralen Kurvenzug voll umschließen<br />
* Eine weitere Forderung ist das die Leuchtdichte als unabhängige Komponete auftreten soll<br />
* Die Fläche des Dreiecks soll so klein wie möglich sein<br />
* Die dadurch berechnbaren Normalvalenzen sind physikalisch nicht erzeugbar -> Die Spektralwertkurven für das System müssen berechnet werden<br />
** Die Berechneten Spektralwertkurven sind stets nichtnegativ -> immer positive Transmissionsgrade und Sensorempfindlichkeiten<br />
[[Bild:NORMXYZ1.JPG]]<br />
* Mit dem XYZ-System kann man nun Farbdreiecke vergleichen und Bewerten<br />
** Abstände, Fehler und Systemeigenschaften sollten aber in einem empfindungsmäßig gleichabständigen Farbraum bewertet werden (u'v'w' und CIELab)<br />
* '''Optimalfarbkörper'''<br />
** Beschreibt die Grenze aller darstellbaren Körperfarben<br />
** Zur Erstellung schneidet man rechteckförmige Stückchen aus dem Spektrum von Idealweißem Licht aus<br />
<br />
== Das UVW-System ==<br />
* Informationsgehalt der Farbe für den Menschen hängt davon ab welche Farbunterschiede er wahrnehmen kann<br />
* Vor allem ist das interessant wenn Bildverarbeitungsprobleme auf der menschlichen Wahrnehmung formuliert sind<br />
* xy-Farbtafel hat starke Unterschiede zwischen örtlichen Abstenden und empfindungsmäßigen Abständen -> ungeeignet<br />
* erste Lösung<br />
** lineare Transformation<br />
** W' -> Helligkeit<br />
** U' -> Rot-Grün Bundheit<br />
** V' -> Gelb-Blau Bundheit<br />
** Ergebnis<br />
*** Wesentlich besseres Darstellung der Empfindung (Faktor 10 gegenüber dem XYZ-System)<br />
* verbesserte Lösung<br />
** verwenden einer nicht linearen Abbildung (Auge wird mit berücksichtigt)<br />
<br />
== L*a*b* oder CIELAB-Raum ==<br />
* Gegenfarbmodell<br />
* empfindungsmäßig gleichabständiger Raum<br />
* Grundsätzlich zur Angabe von Farbabweichungen verwendet<br />
** Geeignet zur Bewertung von Druckern, Monitoren und Abweichungen von Nachfärbungen<br />
* als Farbdifferenzmaß wird der euklidische Abstand benutzt (<1 nicht mehr Wahrnehmbar)<br />
<br />
== L*u*v* oder CIELUV ==<br />
* für additive Mischung vorgesehen<br />
* wie der CIELAB- Raum ein empfindungsmäßiger gleichabständiger Raum<br />
<br />
== YCbCr - Crominanzwertsystem ==<br />
* Entwickelt damit Farbfernsehen und S/W-Fernsehen Parallel betrieben werden konnten<br />
* Crominanzwerte<br />
** sind von Leuchtdichte befreite Werte<br />
** verschwinden für alle unbunten Farben<br />
** Cr= R-Y, Cg = G-Y, Cb = B-Y<br />
** Das System aus CrCbCg und Y ist überbestimmt => Es reicht die Übetragung von Cr , Cb und Y<br />
* Da das Auge auf Helligkeitsunterschiede empfindlicher reagiert als auf Farbunterschiede können die Crominanzwerte mit geringerer Auflösung übertragen werden<br />
<br />
== ΘSY - System ==<br />
* Der Bunttonwinkel Θ berechnet sich aus dem Verhältnis der Crominanzwerte Cb und Cr<br />
* Die Sättigung S ist der Betrag des Vektors CrCb<br />
<br />
== HSI - Farbraum ==<br />
* Intensität: <math> I= \frac{R+G+B}{3} </math><br />
* Sättigung: <math> S = 1 - 3 \cdot min (r,g,b) </math><br />
* Hue: <math> H= \left\{ \begin{matrix}\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B\le G \\ 2\pi -\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B>G \end{matrix}\right . </math><br />
* Raum ist nicht gleichmäßig gefüllt<br />
* bei kleinen Intensitäten I in Buntton und Sättigung Instabil<br />
* Es kann bei Farbmanipulationen dazu führen das es keine Entsprechungen im RGB gibt<br />
** Lösungen:<br />
*** Dachförmige Begrenzung des HSI Raums -> sehr Aufwendig<br />
*** Normieren der Intensitäten -> Bild kann ins dunkle verschoben werden<br />
*** Maximalwert setzen -> Falsche Farbwerte (werden ins unbunte verschoben)<br />
*** proportionales skalieren bis Farbe im RGB-Würfel liegt<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
<br />
== HSL - Farbraum ==<br />
* Gern für Computergrafik verwendet<br />
* einfache Beziehungen<br />
* Die Verwendeten Biegriffe H,S,L entsprechen nicht der Bedeutung in der Farblehre und Form des Raumes<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
* Buntton ist extrem instabil bei kleinen Sättigungen<br />
* Form des Raumes ist unpraktisch<br />
<br />
= Farbmessung (GF 1 - 11) =<br />
<br />
* Farbmessung = Ermittlung der drei zu einer Farbvalenz gehörigen Farbmaßzahlen<br />
* 3 Messmethoden: <br />
** Vergleichsmethode oder Gleichheitsverfahren<br />
** Spektralverfahren<br />
** Dreibereichsverfahren<br />
<br />
== Gleichheitsverfahren ==<br />
<br />
* Vergleiche:<br />
** Vorlage mit additivem Gemisch<br />
** Vorlage mit Farbmusterkarten (DIN-Karten)<br />
* unverzichtbar bei physiologischen Untersuchungen<br />
* aufwendig und bei kleinen Probandengruppen ungenau<br />
* d.h. für technische Messungen ohne Bedeutung<br />
<br />
'''Messbedingungen nach DIN:'''<br />
* helladaptiertes und blendfreies Sehen<br />
* unbunter Messraum<br />
* neutrale Gesichtsfeldumgebung mit gleicher oder etwas kleinerer Leuchtdichte als im Messfeld<br />
* gut ausgeruhtes und neutral gestimmtes Auge<br />
* farbnormalsichtiger Beobachter<br />
<br />
== Spektralverfahren ==<br />
<br />
* zu messende Farbvalenz = Summe spektraler Farbvalenzen<br />
* greift auf gemessene Normspektralwertkurven zurück<br />
<br />
# '''spektrale Messung zur Ermittlung der Farbreizfunktion <math>\varphi (\lambda) </math>'''<br />
#* Selbststrahler: direkte Messung der Strahlungsfunktion <math>\rightarrow \varphi (\lambda)= S (\lambda)</math><br />
#* remittierende Vorlage: Remissionsfunktion der Vorlage messen, d.h. Strahlungsfunktion S ist vorher zu bestimmen und aus <math>\varphi (\lambda)</math> heraus zu rechnen <math>\rightarrow \varphi (\lambda)= \beta (\lambda) \cdot S (\lambda)</math><br />
# '''farbvalenzmetrische Auswertung'''<br />
#* wenn <math>\beta (\lambda)</math> ermittelt wurde, kann jede beliebige (tabellierte) Lichtquelle <math>S^{\ast} (\lambda)</math>eingesetzt werden<br />
#: <math><br />
\begin{bmatrix}<br />
X\\Y\\Z<br />
\end{bmatrix}<br />
= k \cdot<br />
\begin{bmatrix}<br />
\int \bar{x} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{y} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{z} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda<br />
\end{bmatrix}<br />
</math><br />
#* Normierungskonstante k:<br />
#** Selbststrahler: nur Farbwertanteile gefragt, d.h. k ist beliebig<br />
#** Körperfarben: Y für mattweißen Körper = 100, d.h. <math>k=\frac{100}{\int {S(\lambda) \cdot \bar{y}(\lambda) d \lambda}}</math><br />
<br />
'''Messgeometrien:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bildergalerie (45°,8°,Transmission) </span><br />
<br />
* ''45°-Geometrie'': Beleuchtung unter 45° schließt Glanzeinfluss aus <math>\rightarrow</math> Sensor blickt senkrecht auf Probe<br />
* ''8°-Geometrie'': Beleuchtung diffus über Ulbricht-Kugel <math>\rightarrow</math> Sensor blickt unter 8° auf Probe; Messung mit/ohne Glanz möglich<br />
* ''Transmissionsgeometrie'': Probe wird durchleuchtet<br />
<br />
== Dreibereichsverfahren ==<br />
* die drei Farbwerte werden direkt photometrisch gemessen<br />
* Filter und spektrale Empfindlichkeite der Strahlungsempfänger müssen an die spektrale Bewertungsfunktion angepasst sein<br />
* '''Luther-Bedingung:''' <math> \tau_x(\lambda) = \frac{c_x \cdot x(\lambda)}{s_1(\lambda)}</math><br />
** <math> \tau_x(\lambda) </math> ... Filtertransmission<br />
** <math>s_1(\lambda)</math> ... Sensorempfindlichkeit (hier im ersten Kanal)<br />
** <math>c_x</math> ... Gerätekonstante<br />
** Für den Y und Z Kanal ist die Formel analog<br />
* Der notwendige Filter kann gut durch ein Set von Schmalbandigen Filtern realisiert werden<br />
<br />
== Spektralmaskenverfahren ==<br />
<br />
* spezielles Dreibereichsverfahren<br />
* Lichtzerlegung erfolgt mit einem Prisma<br />
* Das zerlegte Lich beleuchtet eine Maske (Papier, Plaste, Metal .... ne richtige echte Maske)<br />
* Messen der spektralen Verteilung (CCD-Zeile)<br />
* Ähnlich dem Spektralverfahren nur das das spektrum bereits im analogen entsprechend gewichtet wird<br />
<br />
== Metamerie ==<br />
* zwei Farbproben die bei einer bestimmten Beleuchtung gleich aussehen können bei einer anderen Beleuchtung ganz anderst aussehen<br />
* Der Metermarie-Index beschreibt diesen durch Beleuchtungswechsel entstehenden Farbwechsel<br />
* KEIN Maß für die Farbkonstantheit sondern für den Unterschied von zwei Proben<br />
* Berechnung erfolgt im L*a*b* Raum <br> <math> M_T = \sqrt {(L_{1T}-L_{2T}+L_{2B}-L_{1B})^2 +(a_{1T}-a_{2T}+a_{2B}-a_{1B})^2+(b_{1T}-b_{2T}+b_{2B}-b_{1B})^2 } </math><br />
** T ... Testlicht<br />
** B ... Bezugslicht<br />
** 1,2 ... Probennummern<br />
<br />
= Klassifikation von Messaufgaben (GF 82 - 86) =<br />
<br />
# Messung von objektiven Eigenschaften, die sich in der Veränderung spektraler Charakteristika niederschlagen<br />
#* vordergründig ist Zusammenhang zwischen Veränderungen in den physikalischen Eigenschaften von Interesse (z.B. Waferinspektion)<br />
#* Zusammenhang sollte eindeutig und von hinreichender Empfindlichkeit sein<br />
#* Wahrnehmung unterschiedlicher Farben eher Nebeneffekt<br />
# Überwachung der Stabilität von farblichen Erscheinungen<br />
#* ist bei einer oder mehreren Beleuchtungen zu überwachen<br />
#* absolute Farbmessung nicht nötig; "Anlernen" auf Farben genügt<br />
#* Abstände im Farbempfinden müssen sich in gleicher Weise in Veränderungen der Sensorsignale wiederspiegeln<br />
# absolute Farbmessung<br />
#* d.h. Ermittlung der korrekten Farbvalenz unter beliebigen Messbedingungen<br />
#* Spektralwertkurven müssen realisiert werden<br />
# Messung des spektralen Remissions- und/oder Transmissionsverhaltens von Materialien<br />
#* ausschließlich spektrale Messverfahren<br />
#* Messung der Strahlungsfunktion und der remittierten Leistungsdichte<br />
#* Berechnung der Farbvalenz bei beliebiger Beleuchtung und des Metamerie-Index<br />
<br />
'''steigende Ansprüche mit steigender Nummerierung'''<br />
<br />
= Einfache Farbkalibrierung (GF 16 - 41) =<br />
* Farben sollen möglichst exakt Wiedergegeben werden<br />
<br />
== Ausgleich von Beleuchtungseinflüssen ==<br />
* Körperfarben werden durch ihre Remmision bestimmt <math> \beta </math><br />
* Bei unterschiedlicher Beleuchtung sehen Farben unterschiedlich aus aber das Auge kann sich an die Beleuchtung adaptieren<br />
** Funktioniert bei Fotos aber nicht -> Beleuchtungsausgleich ist wichtig<br />
** Bei Farbvergleich noch viel mehr<br />
** Wird realisiert durch Weißabgleich (auf integraler Farbebene nicht möglich )<br />
* Direkte Vermessung der spektralen Eingenschaften der Kamera nicht möglich (Da Werte in Kamera bereits verrechnet werden um z.B. die negativen Anteile der Spektralkurven zu realisieren)<br />
** sehr Aufwendig (Kamera auseinanderbasteln um an die echten werte zu kommen + das durchgehen durch das Spektrum in kleinen Schritten)<br />
* Daher Verwendung von Testfarben<br />
** Führt auf Lösung eines linearen Gleichungssystem<br />
** Für menschliches empfinden -> Optimieren im CIELAB-Raum<br />
* Vorsicht bei nichtlinearen Funktionen zur Farbkalibrierung -> Kann bei zu wenig Testfarben zu total falschen Ergebnissen führen !!<br />
<br />
= Color Management (F CM 1 - 20) =<br />
* verschiedene Geräte können verschiedenen Farben darstellen<br />
* verschiedene Geräte verwenden andere Grundfarben zum mischen<br />
* Mit Hilfe von Profilen (Tabellierung der Farbwerteumrechnungen) wird eine Konvertierung der Farben vom Geräteraum in den CIELab Raum bzw umgekehrt durchgeführt<br />
* in den Profilen wird auch vermerkt welche Farben darstellbar sind und welche nicht<br />
* Somit kann man eine "Druckvorschau" auch auf einem Monitor erreichen (natürlich nur für Farben die auf beiden Geräten dargestellt werden können)<br />
** Jedes Mapping der Farben (Gamut-Mapping stellt somit einen Kompromiss dar)<br />
**# Perceptual (Die Farbbeziehungen untereinander werden erhalten) Komprimierung des Gamuts bis er in den zur Darstellung verwendeten passt<br />
**# Colometrisch -> Exakte Reproduktion aller in beiden Gamuts darstellbaren Farben<br />
**## relativ -> weiß wird auf weiß abgebildet und alle anderen Farben relativ dazu<br />
**## absoult farbmetrisch<br />
**# Saturation, alle Farben außerhalb des Zielgamuts werden zugunsten der Sättiung verändert<br />
* Kalibrierung -> Versetzen des Gerätes in einen definierten, reproduzierbaren Zustand<br />
* Charakterisierung -> Modellierung eines Gerätes welches sich ein einem stabilen definierten Zustand befindet<br />
<br />
= Kameras (GF_Ka 1 - 12) =<br />
<br />
'''Einsatzfelder:'''<br />
* ortsaufgelöste Messung von Farbe<br />
* Aufnahme und Wiedergabe von True-Color Bildern<br />
* Aufnahme farbiger oder mehrkanaliger Bilder für die Verarbeitung/Analyse (Qualitätssicherung)<br />
* Photogrammetrische Anwendungen (Lösung des Korrespondenzproblems)<br />
* Radiometrische Anwendungen (Messen im Spektralbereich)<br />
<br />
'''Dreibereichsmessung:'''<br />
* setzt die Trennung von drei sich überlappenden Spektralbereichen voraus, die dann wellenlängenabhängig zu bewerten und zu integrieren sind<br />
<br />
== Dreichip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* optische Kanaltrennung und Bewertung<br />
* beste Bildqualität, da hohe Auflösung in allen drei Kanälen<br />
* keinen örtlichen Versatz der Pixel in den drei Farbauszügen<br />
* Filter einfacher und präziser zu realisieren<br />
* befinden sich z.B. als dichroitische Spiegel auf den Strahteilerprismen<br />
<br />
<span style="color:#ee0000;"> \\ Hot-Mirror-, Cold-Mirror-Korrektur????</span><br />
<br />
== Einchip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: doppelte Anzahl grüner Pixel wegen Schärfe, MTF des Auges </span><br />
<br />
* örtliche Kanaltrennung und Bewertung<br />
* Streifen- oder Mosaikfilterstrukturen auf den einzelnen Pixeln zur örtlichen Signaltrennung<br />
* 3 oder 4 unterschiedliche spektrale Auszuüge zur Erzeugung der Farbinformation<br />
* Matrix selbst kann Interline- oder Frame-Transfer-Matrix sein<br />
* kostengünstiger und kleiner als Dreichip-Kameras<br />
* Probleme:<br />
** Farbvalenzen aus örtlich versetzten Auszügen (z.B. Farbsäume an Kanten)<br />
** nicht korrigierbare Fehler aus Nichtlinearitäten und Dunkelsignalen bei der Bildung von Mischsignalen<br />
<br />
'''generelle Anforderungen an die Signalverarbeitung:'''<br />
<br />
* primäre Kamerasignale stellen keine farbmetrische Schnittstelle zur Verfügung, d.h. alle Bewertungsfunktionen sind nicht-negativ (Spektralwertkurven fordern aber negative Wichtungen)<br />
* je nach realisierten Filtern und Genauigkeitsansprüchen <math>\rightarrow</math> lineare Matrizierung (meist Kameraintern) oder komplexere Approximation<br />
* bei hohen Genauigkeitsansprüchen <math>\rightarrow</math> Umgehung der Kamerainternen Matrizierung, weil Verstärkungsfaktoren, Toleranzen, Temperaturdrift, Langzeitstabilität etc. nicht bekannt sind<br />
* insgesamt geringe Nichtlinearitäten der CCD's können in den Ansteuerbereichen der einzelnen Kanäle zu wesentlichen Fehlern führen:<br />
** Farbvalenz ändert sich kontinuirlich mit der Shutterzeit<br />
** Pixelweise DSNU- (Dunkelsignalungleichförmigkeit) und PRNU- (Hellsignalungleichförmigkeit) Korrektur vor Erzeugung der Farbvalenz erforderlich, da sich Festmusterrauschen nicht nur auf Intensität sondern auch auf Farbart auswirkt<br />
** Dunkelsignal verdoppelt sich alle 7K, Gleichanteil wird aber geklemmt<br />
** Lichtquellentyp und Langzeitverhalten wirken sich nicht nur Intensität sondern auch auf Farbtemperatur aus<br />
<br />
'''4 spektrale Bereiche:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* vorteilhaft zur Erzeugung von Farbdifferenzsignalen für die TV-Kompatibilität<br />
* im Field-Integration-Mode werden Mischsignale gebildet, die die erforderliche Signalkorrektur für hohe Ansprüche behindern<br />
* Nichtlinearität der Ausgangsverstärker wirkt sich auf Korrektur der primären Mischsignale aus<br />
<br />
== Sequentielle Einchip-Kamera ==<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* zeitliche Kanaltrennung und Bewertung<br />
* relativ genaue Approximation der Spektralwertkurven möglich<br />
<br />
== Elektrisch steuerbare Filter ==<br />
<br />
* über die Wellenlängenabhängigkeit der Eindringtiefe der Photonen und die Steuerbarkeit der Tiefe der Potentialmulden der sensoren lassen sich steuerbare spektrale Empfindlichkeiten erzeugen<br />
<br />
= Verarbeitung von Farbbildern (1 - 31) =<br />
* Das unabhängige verarbeiten der Farbkanäle eines Farbbildes führt zu Nebeneffekten wie Farbsäume<br />
* Die höhere Vielfalt des mehrdimensionalen Raumes von Farbbildern kann Vorteilhaft genutzt werden für Pixelklassifikation, Segmentierung <br />
* Abstände, Mittlere Werte und örtliche Veränderungen sind in empfindungsmäßig gleichabständigen Räumen zu definieren und zu bewerden<br />
<br />
== Histogramme und Statistiken für Farbbilder ==<br />
* Farbbilder liefern dreidimensionale Häufigkeitsverteilungen im Farbraum → können als Approximation der entsprechenden 3D-Dichten verwendet werden<br />
* statistische Zusammenhänge zwischen den Kanälen werden in mehrdimensionalen Dichten betrachtet<br />
** Für Handauswertung meist nur 2D-Dichten, wegen der Übersicht<br />
** Für maschinelle Auswertung können diese dichten auch dreidimensional werden<br />
** für die parametrische Darstellung der Cluster werden meist multivariante Gaußverteilungen eingesetzt<br />
*** Einr Gaußverteilung ist für die Beschreibung eines Bildes mit mehreren Objekten nicht geeignet<br />
*** Die Kovarianzmatrix einer solchen "Approximation" kann aber gut zur Einschätzung der Streuung und der Mittelwerte in dem Bild eingesetzt werden<br />
<br />
=== Histogramm - Modifikationen ===<br />
* Contrast Streching, Polygonal Image Scaling, Histogram-Equalisation Siehe [[Grundlagen der Bildverarbeitung und Mustererkennung#homogene Punktoperationen|Grundlagen der Bildverarbeitung]]<br />
* Manipulation kann in verschiedenen Farbräumen ausgeführt werden (RGB,HSI,...)<br />
** In nicht empfindungsmäßig gleichabständigen Räumen muss die Transformation nicht unbedingt zum Ziel führen<br />
==== Manipulation im Farbraum RGB ====<br />
* ist der Farbraum in dem die Daten häufig vorliegen<br />
* Wirkung kann auf Grund der starken korrelation der RGB Werte bei geringen Sättigungen ausbleiben<br />
* Farbverfälschung wenn einzelne Kompontenen unabhänig von einander behandelt werden<br />
* hohes apriori-Wissen notwendig<br />
* wenn Falschfarbdarstellung gewünscht ist kann dies das mittel der Wahl sein<br />
<br />
==== Manipulationen im Farbraum HSI ====<br />
* unproblematisch in Bezug auf Farbverfälschungen<br />
* Zielsetzungen können sich einfacher beschreiben lassen (ähnelt der Beschreibung von Farbe durch den Menschen)<br />
* unabhängige Komponente (Intensität)<br />
* Kontrastverbesserung durch Sättigungsausgleich ohne Farbveränderung möglich<br />
* Stabilitätsprobleme nahe den unbunten Farben<br />
# '''Ausgleich des Intensitätshistogramms'''<br />
#* Werte möglich die keine entsprechung mehr im RGB haben → müssen geeignet herruntergerechnet werden<br />
#* bei kleinen Intensitäten sind die Bunttöne instabil → ausschließen von Veränderungen<br />
# '''Sättigungsausgleich'''<br />
#* Modifikation der Sättigung unter Beibehaltung des Bunttones<br />
#* Bei kleinen Sättigungen und kleinen Intensitäten ist der Buntton instabil → Ausschließen<br />
#* Histogramm über alle Bunttöne ist häufig verschmiert → besser Histogramm über Buntton Segmente<br />
# '''Bunttonausgleich'''<br />
#* Ziel sind Farbfalschbilder um Objekte besser unterscheiden zu können<br />
#* bei zu großen Buntton Änderungen wird die Interpretierbarkeit nur bei homogenen Flächen verbessert, meist wird sie eher verschlechtert<br />
#* Unsicherheit des Bunttons → bei geringen Sättigungen und Intensitäten ist der Buntton auszuschließen<br />
<br />
== segmentgesteuerte Farbvalenztransformationen ==<br />
* Globale Statistiken werden häufig durch nicht interressante Objekte dominiert<br />
* Ausweg ist das Betrachten von Ausschnitten und anwenden der Transformationen auf die Ausschnitte<br />
* erfordert zu erst das Segmentieren des Bildes<br />
<br />
= Referenzfreie Farbadaption auf Basis des 3D-Histogramms (HuS 32 - 39 ) =<br />
* unter bestimmten umständen kann auf eine Kalibrierung der Kamera mittels Referenzfarben verzichtet werden<br />
* Zur Korrektur soll die parametrische Approximation der 3D-Histogramme durch multivariante Gaußverteilungen genutzt werden<br />
== Vorraussetzungen für die Anwendbarkeit ==<br />
* Strukturierte Szene mit mehreren ntürlichen Objekten, die gleichmäßig über den Bunttonwinkel verteilt sind und durchschnittlichen Sättigungsgrad aufweisen<br />
* Langgestreckter SW-Prozess im Vergleich zum Rot-Grün und Blau-Gelb Prozess<br />
<br />
== Vorgehensweise ==<br />
* Korregieren von "vermutlichen" Abweichungen des Bildes in der Unbuntheitsachse<br />
* Dazu Ermitteln der Hauptachsen mit PCA<br />
* Drehen der Hauptachse in den SW-Prozess<br />
* Rücktransformation und Darstellung<br />
<br />
= Histogrammbasiertes Farbmatching(1 - 15) =<br />
<br />
= Störunterdrückung (SU 1 - 16) =<br />
<br />
= Kantendetektion in Farbbildern (1 - 21) =<br />
<br />
= Farbpixelklassifikation (Farbpixelklassifikation 1 - 21) =<br />
<br />
= Clusterverfahren (Farbpixelklassifikation 19 - 45) =<br />
<br />
= Segmentierung (Seg 1 - 8) =<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Grundlagen_der_Farbbildverarbeitung&diff=6981Grundlagen der Farbbildverarbeitung2009-03-15T10:33:36Z<p>DarkGhost: /* Verarbeitung von Farbbildern (1 - 31) */</p>
<hr />
<div>Link zum [http://www.zbs-ilmenau.de/intern/vip-toolkit/index.php Vip toolkit]<br />
= Einführung (GF_a 8 - 47) =<br />
<br />
== Geschichtliches zur Farbe ==<br />
<br />
=== Newton ===<br />
<br />
* 1672: New Theory about Light and Colours<br />
** Sonnenlicht = Mischung einzelner Farben<br />
** Spektralfarben sind objektive Eigenschaft des Lichtes<br />
<br />
[...]<br />
<br />
=== Goethe ===<br />
<br />
[...]<br />
<br />
== Begriff der Farbe ==<br />
<br />
* '''Farbe im engeren Sinn, stellt eine spezielle menschliche Sinneswahrnehmung dar'''<br />
* <math>\Phi_i = \int_{\Delta \lambda_i} \varphi_{\lambda} (\lambda) d \lambda</math><br />
* Leistungsdichte <math>\phi (\lambda)</math> stellt dagegen den Farbreiz dar, der die Farbempfindung hervorruft<br />
* Vektoren <math>\underline \Phi</math> sind je nach Dimension mehr oder minder genaue Approximationen des Farbreizes<br />
<br />
* Orientierung am menschlichen visuellen System und die Betrachtung psychologischer und physiologischer Grundlagen sind von Interesse:<br />
** zur richtigen Bewertung der Schwierigkeiten und Herausforderungen bei der Schaffung technischer Lösungen<br />
** zur Anpassung technischer Lösungen der Bildwiedergabe an das visuelle System<br />
** zur Nutzung optimaler Naturprinzipien für technische Lösungen<br />
** weil technische Systeme im allgemeinen auf dem inneren Modell des Menschen von der Welt beruhen und dieses Modell in hohem Maße durch den visuellen Kanal des Menschen beeinflusst ist<br />
** weil optoelektronische Sensoren, Bildverarbeitung und Bildanalyse wichtige Schnittstellen zwischen Mensch und Maschine darstellen<br />
**weil viele Objekteigenschaften durch visuelle Eindrücke beschrieben werden<br />
<br />
* menschliches Auge kann ca. 100 Graustufen / ca. 300 000 Farben unterscheiden<br />
<br />
* Drei grundsätzliche Anwendungen von Farbinformation:<br />
** Pseudokolorierung<br />
** Falschfarbendarstellung<br />
** Echtfarbdarstellung (True Color) <math>\rarr</math> hier Schwerpunkt<br />
<br />
== Farbtäuschung ==<br />
<br />
* Zuordnung zwischen Physik und Wahrnehmung nur eindeutig wenn bunte Dinge isoliert betrachtet werden<br />
* Werden bunte Objekte in bunte Umgebungen eingebettet/bewegt, dann können abweichende Farbwahrnehmungen auftreten, so genannte Farbtäuschungen<br />
* es existieren unterschiedliche Arten solcher Täuschungen:<br />
** ''Farbinduktion oder simultaner Farbkontrast'' (Farbe wird durch ihre Umgebung modifiziert)<br />
** ''Farbkonflikt'' (es konkurrieren verschiedene Sehinformationen miteinander)<br />
** ''Subjektive Farben'' (es werden bunte Farbtöne wahrgenommen, die nicht vorliegen)<br />
<br />
'''Simultaner Farbkontrast:'''<br />
* erstmals 1839 beschrieben<br />
* wo der Effekt entsteht (Auge, Cortex) ist unklar<br />
<br />
'''Farbinduktion:'''<br />
* bei kleinteiligen, sich wiederholenden Strukturen erfolgt Angleichung<br />
* kann zur Rauschunterdrückung oder zur Unterdrückung von Feintexturen zugunsten der Erkennung größerer Objekte wichtig sein<br />
<br />
'''Farbkonflikt:'''<br />
* Formen und Strukturen konkurrieren mit Farben ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf White'sche Illusion])<br />
<br />
'''Subjektive Farben:'''<br />
* durch Bewegung ist es möglich Farben zu erzeugen die ursprünglich nicht vorhanden waren ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf Drehwurm in Farbe])<br />
<br />
== Farbwahrnehmung beim Menschen ==<br />
<br />
[...]<br />
<br />
=== Rezeptive Wahrnehmung ===<br />
* 1807 stellte Young die Hypothese auf das Farbsehen auf drei Arten von Sinneszellen beruht (rout,grün,blau)<br />
* erst 1964 konnten dies bewiesen werden, durch die Messung der Absorptionsspektren<br />
*[[Datei:Pdt-kurven.svg]]<br />
<br />
=== Postrezeptive Wahrnehmung ===<br />
* Mit dem 3 Farbenmodell konnten einige psychologische Erscheinungen nicht erklärt werden<br />
** Es werden 4 Farben als besonderst "rein" empfunden (Rto, Geln,Grün, Blau)<br />
** Unbunte Farben werden werden als das fehlen von Farben wahrgenommen<br />
** Schwarz schein gleichberechtigt zu Weiß<br />
** keine wahrgenommene Farbe erscheint zugleich rötlich und grün<br />
* das führte zur Gegenfarbentheorie die anfangs nur Psychologisch begründet war 1958 aber physiologisch Nachgewiesen werden konnte<br />
** Rot - Grün<br />
** Gelb - Blau<br />
** Schwarz - Weiß<br />
* → CIELab-Farbraum<br />
<br />
=== Kortikale Kodierung ===<br />
* Weder die 3 Farbentheorie noch die Gegenfarbentheorie beschreiben die bewusste Wahrnehmung des Menschen<br />
* Deshalb erweitertes Modell<br />
** Farbton / Buntton beschreibt die als besonderst rein empfundenen Spektralfarben<br />
** Sättigung beschreibt wie stark eine Farbe verblasst ist<br />
** Helligkeit beschreibt, wie hell oder dunkel eine Farbe ist<br />
* Wo/Wie genau die neuronale Verarbeitung erfolgt, ist noch nicht sicher belegt<br />
<br />
== Die Ordnung in der Welt der Farben ==<br />
* Newton kannte die Wellenlänge noch nicht → er ordnete die Farben nach dem Regenbogen<br />
* Goethe verwendete das Gegenfarbenmodell<br />
* Munsell schlug 1905 ein Farbordnungssystem vor bei dem alle Abstände zwischen den Farben Empfindungsmäßig gleich sind<br />
** führt zu einem geometrisch nicht regelmäßigen Körper<br />
<br />
== Das Modell der Farbe ==<br />
* '''Definition'''<br />
** Farbe ist diejenige Gesichtsempfindung eines dem Auge strukturlos erscheinenden Teils eines Gesichtsfeldes durch die sich diser Teil bei einäugiger Betrachtung mit unbewegtem Auge von einem gleichzeitig gesehenen ebenfalls strukturlos angrenzendem Bezirk allein unterscheidet (unbunte Farben: Schwarz, Weiß und Graustufen, bunte Farben: Helligkeit; Buntheit setzt sich aus Buntton und Farbsättigung zusammen)<br />
** Farbe ist durch Helligkeit, Buntton, Sättigung eindeutig bestimmt → 3D Modell<br />
*** drei linear unabhängige Größen<br />
*** Additive Mischung zur Reproduktion von Farbe (aus Rot, Grün, Blau)<br />
*** drei linearunabhängige Größen spannen immer einen Raum auf → Rot,Grün und Blau werden die Achsen dieses Raumes<br />
<br />
=== Farbvalenz ===<br />
* Mit unserem Modell läßt sich jede Farbe als linearkombination unserer drei Basisvektoren aufschreiben<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
** <math> \vec F</math> ... Farbvalenz<br />
** <math> \vec r, \vec g, \vec b </math> ... die drei Basisvektoren die den Raum aufspannen (Rot, Grün und Blau)<br />
** <math> R,G,B, |\vec F| </math> ... die Farbwerte<br />
** <math> \vec r \cdot R, \vec g \cdot G, \vec b \cdot B </math> ... die drei Primärvalenzen<br />
* Ermittelt werden die Farbwerte mit Hilfe der Vergleichsmethode<br />
** Eine Person vergleicht ein Target mit einer Farbe die aus den drei Primärvalenzen gemischt wird<br />
** wenn die Empfindung der beiden Farben gleich ist, dann notieren wir die Werte<br />
* Innere Farbmischung<br />
** das Target wird mit weißen Licht beleuchtet und wir drehen nur an dem Farbmischgerät<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
* Äußere Farbmischung<br />
** Wir beleuchten das Target mit farbigen Lichte<br />
**<math> \vec F+ B \cdot \vec b = R \cdot \vec r + G \cdot \vec g \rightarrow \vec F = R \cdot \vec r + G \cdot \vec g - B \cdot \vec b</math><br />
<br />
=== Farbreizmetrik ===<br />
* Die Farbreizfunktion <math> \varphi_\lambda</math> beschreibt die spektrale Zusammensetzung der Farbempfindungen<br />
*# Selbstleuchtende Objekte<br />
*#* <math> S_\lambda (\lambda)</math> beschreibt die spektrale Verteilung der Quelle<br />
*#* Wahrnehmung: <math> \varphi_\lambda = S_\lambda</math><br />
*# Auflicht Vorlagen<br />
*#* <math>\beta_\lambda(\lambda)</math> beschreibt den spektralen Remisionsgrad der Vorlage<br />
*#* Wahrnehmung: Licht reflektiert von der Vorlage <math> \varphi_\lambda = S_\lambda \cdot \beta_\lambda</math><br />
*# Durchlichtvorlagen<br />
*#* <math>\tau_\lambda(\lambda)</math> spektraler Transmissionsgrad der Vorlage<br />
*#* Wahrnehmung von Licht welches die Vorlage durchdrungen hat <math>\varphi_\lambda= S_\lambda \cdot \tau_\lambda</math><br />
* Damit haben folgende Faktoren Auswirkung auf die Wahrgenommene Farbe<br />
*# Die Beleuchtung des Objektes (Spektrale Zusammensetzung des Lichtes der Lampe)<br />
*# Das Remmisionsverhalten der beleuchteten Oberfläche<br />
*# Die wellenlängenabhängige Empfindlichkeit der drei Zapfen des Auges<br />
* Es besteht die Möglichkeit die pdt Kurven direkt zur Beschreibung des Farbempfindens zu nutzen<br />
* Die Farbwerte könnte man dann wie folgt ermitteln: <math> \left(\begin{matrix}P\\D\\T\end{matrix}\right)=k\int_{380\mathit{nm}}^{780\mathit{nm}}\varphi (\lambda )\cdot \left(\begin{matrix}p(\lambda )\\d(\lambda )\\t(\lambda )\end{matrix}\right)d\lambda </math><br />
* Für die technische Darstellung von Farbe werden allerdings R,G,B werte benötigt<br />
* Die dafür notwendigen Spektralwertkurven können mit Hilfe der Vergleichsmethode ermittelt werden<br />
* Man erhält damit folgende Kurven<br />
[[Datei:SpektralwertfunktionenRGB.jpg]]<br />
* Mit der gleichen Formel wie bei der pdt Kurve lassen sich nun die R,G,B Werte rechnerisch ermitteln<br />
<br />
== Farbanalyse, Zusammenhang mit der Farbwidergabe ==<br />
* Das Kammera - Monitor System soll die Farbe exakt wiedergeben<br />
* Der Monitor verwendet EBU Phosphore für die Farbdarstellung<br />
** haben selbst Spektralwert kurven => keine Monochromatischen Lichter mehr<br />
* Die notwendigen spektralwertkurven die die Kamera realisieren muss um die Bilder auf dem Monitor exakt darzustellen lassen sich mit Hilfe der pdt Kurven herleiten (Über forderung der Gleicheit der Farben)<br />
* Sie besitzen stark negative Anteile => Auch die Filter der Kamera müssten negative Transsmissionsgrade besitzen<br />
** technisch ist das nicht möglich<br />
* es bleibt also nur die Möglichkeit die notwendigen Parameter zur Ansteuerung des Monitors aus positive one-peak Kurven zu berechnen<br />
<br />
== Subtraktive Farbmischung ==<br />
* Die Subtraktive Farbmischung lässt sich auf die Multiplikation der Transmissionsgrade zurückführen (ein Filter lässt 50% rotes licht durch, wenn man zwei dieser Filter hintereinander legt, dann geht nur noch 25% rotes Licht durch die Anordnung (0.5*0.5 = 0.25) )<br />
* wenn <math> \tau_0 </math> die Transmission eines Filters für die normierte Dicke 1 und die normiert Dichte 1 ist dann kann man<br />
** mit dem Lambertschen Absorbtionsgesetzt die Absortption von dickern/düneren Material berechnen <br> <math> \tau = [ \tau_0]^w </math><br />
*** w ... Dicke des Materials im Verhältnis zum norm Material<br />
** mit dem Beerschen Gesetz die Transmission von Meterial mit anderer Dichte berechnen <br><math> \tau = [ \tau_0]^c </math><br />
*** c... Das Verhältnis der neuen zur alten Dichte<br />
** kann man auch kombinieren zu (Lambert-Beersches Gesetz)<br />
** <math> \tau = [ \tau_0]^{c \cdot w} </math><br />
* Da sich die Transmission Multiplikativ zusammensetzt wird auch gerne mit dem logarithmus der Transmission gerechnet (optische Dichte)<br />
**<math> D = - lg \tau = lg \frac{1}{\tau}</math><br />
** Damit vereinfacht sich das Lambert-Beersche gesetz zu: <math> D = c \cdot w \cdot D_0</math><br />
* selbstverständlich sind die Transmission <math>\tau</math> und die optische Dichte D von der Wellenlänge abhänig ... zur Übersichtlichkeit wurde das in den Formeln nur weggelassen<br />
* Bei einem Papierbild kommt zu dem Filter noch die Reflexion an der Farboberfläche und an der Papieroberfläche<br />
** Beachte das Licht was an der erste Schicht wegreflektiert wird kann icht tiefer eindringen. Nur noch <math> (1-\beta)*S </math> dringt an Licht durch den ersten Filter!<br />
*** <math> \beta </math> ... Remmisionsgrad der ersten Farbe<br />
*** <math> S </math> ... Spektrale Verteilung der Lichtquelle<br />
<br />
= Farbmetrische Schnittstellen - Farbräume (GF a 49 - 55) =<br />
<br />
<pre><br />
Unterschiedliche bildgebende Systeme<br />
z.B. Farbkameras<br />
Farbscanner<br />
Spezialkameras<br />
</pre><br />
'''Widerspruch''' <math>\updownarrow</math> Farbmetrische Schnittstelle<br />
<pre><br />
Unterschiedliche Bildwiedergabesysteme<br />
"True-Color-Darstellung"<br />
- unterschiedliche Monitore, Beamer, Drucker etc.<br />
</pre><br />
<br />
== Leuchtdichte (Luminanz) ==<br />
<br />
* Luminanz Y ist die Strahlungsleistung, bewertet mit der spektralen Empfindlichkeitsfunktion des Auges für das Hellempfinden<br />
* Y ist Leistungsproportional, wenn Lichtzusammensetzung (Leistungsdichte <math>\Theta (\lambda))</math> konstant bleibt<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* Leuchtdichte berechnet sich nach dem ''Abneyschen Gesetz'':<br />
: <math> Y = L = k \cdot \underline L^T \cdot \underline F </math><br />
:* <math>\underline L^T - </math> Leuchtdichtebeiwert: gibt an wie groß der Beitrag jedes Farbwertes der Farbvalenz zum Helleindruck ist, abhängig vom gewählten Farbwiedergabesystem<br />
* Leuchtdichte L <math>\ne</math> Intensität I<br />
: <math> I = \frac 1 3 (R+G+B)</math><br />
<br />
* die perzeptuelle Antwort unseres Auges auf die Leuchtdichte wird Helligkeit (Lightness) genannt<br />
: <math><br />
L^{\star} = \begin{cases}<br />
116 \cdot \sqrt [3] {\frac Y {Y_n}} -16, & \text{wenn } \frac Y {Y_n} > 0{,}008856\\<br />
903{,}3 \cdot {\frac Y {Y_n}}, & \text{wenn } \frac Y {Y_n} \le 0{,}008856<br />
\end{cases}<br />
</math><br />
<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: Eine Quelle die nur 18% der Luminanz einer Referenz hat, erscheint uns immer noch halb so hell wie die Referenz </span><br />
<br />
== Gammakorrektur und Luma ==<br />
* '''Gammakorrektur:'''<br />
** Aufgrund der Ansteuerung von CRT Monitoren und der verwendeten Phosphore ergibt sich ungefähr eine quadratische Abhängigkeit der Luminanz vom Videosignal<br />
** Die Luminaz der drein einzelnen Farbkanäle muss den gleichen Verlauf aufweisen. Sie dürfen sich nur in ihren Maximalwerten unterscheiden!<br />
*** Sonst ist es nicht möglich die Helligkeit zu ändern und dabei die Farbe konstant zu halten<br />
** Die Gammakorrektur sorgt dafür das die Farbwiedergabe auf dem Monitor linear verläuft und nicht quadratisch<br />
*** Notwendig damit wir die gleich Wahrnehmung erzielen können als währe das Kamera-Monitor System nicht vorhanden<br />
<br />
*'''Luma:'''<br />
** Luma ist die gewichtete Summe der drei Gammakorregierten Farbwerte R',G',B'<br />
** Damit ist Luma nicht gleich Luminanz<br />
<br />
*'''Brightness'''<br />
** Brightness ist ein Begriff der beschreibt wie stark eine Fläche Licht emmitiert oder sie hell sie erscheint<br />
** Besitzt kein festes Maß und wird daher sehr frei verwendet -> HSL<br />
<br />
== Farbsysteme, Farbräume, reduzierte Farbräume ==<br />
* Die Intensität einer Farbe ist <math> I = \frac{R + G +B}{3} </math><br />
* Wählt man die Intensität konstant mit <math>I=\frac{1}{3}</math> so ergibt sich eine Ebene die den RGB-Farb Würfel Diagonal schneidet und durch die R,G,B Eckpunkte geht<br />
* Jede Farbkoordinate kann auf diese Ebene projeziert werden -> Ermöglicht die Nutzung dieser Ebene als einfache Farbtafel<br />
** Diese Ebene kann dann noch auf die 0RG- Fläche des RGB Würfels projeziert werden ohne das die Ordnung der Farben gestört werden würde -> Der Farbton einer Farbe lässt sich allein durch r und g beschreiben<br />
* in die rg-Ebene können nun alle in RGB - darstellbaren Farben und alles existierenden Farben eingetragen werden<br />
** Danach erkennt man das sich technisch mit dem RGB-System nur ein kleiner Teil der exisiterenden Farben realisieren lässt<br />
<br />
= Das Normvalenz- oder XYZ-System (GF a 76 - 86) =<br />
* Alle Farbwerte sollen durch positive Farbwerte darstellbar sein<br />
** Für Farbmessung von Interesse<br />
** Das XYZ- Dreieck muss den spektralen Kurvenzug voll umschließen<br />
* Eine weitere Forderung ist das die Leuchtdichte als unabhängige Komponete auftreten soll<br />
* Die Fläche des Dreiecks soll so klein wie möglich sein<br />
* Die dadurch berechnbaren Normalvalenzen sind physikalisch nicht erzeugbar -> Die Spektralwertkurven für das System müssen berechnet werden<br />
** Die Berechneten Spektralwertkurven sind stets nichtnegativ -> immer positive Transmissionsgrade und Sensorempfindlichkeiten<br />
[[Bild:NORMXYZ1.JPG]]<br />
* Mit dem XYZ-System kann man nun Farbdreiecke vergleichen und Bewerten<br />
** Abstände, Fehler und Systemeigenschaften sollten aber in einem empfindungsmäßig gleichabständigen Farbraum bewertet werden (u'v'w' und CIELab)<br />
* '''Optimalfarbkörper'''<br />
** Beschreibt die Grenze aller darstellbaren Körperfarben<br />
** Zur Erstellung schneidet man rechteckförmige Stückchen aus dem Spektrum von Idealweißem Licht aus<br />
<br />
== Das UVW-System ==<br />
* Informationsgehalt der Farbe für den Menschen hängt davon ab welche Farbunterschiede er wahrnehmen kann<br />
* Vor allem ist das interessant wenn Bildverarbeitungsprobleme auf der menschlichen Wahrnehmung formuliert sind<br />
* xy-Farbtafel hat starke Unterschiede zwischen örtlichen Abstenden und empfindungsmäßigen Abständen -> ungeeignet<br />
* erste Lösung<br />
** lineare Transformation<br />
** W' -> Helligkeit<br />
** U' -> Rot-Grün Bundheit<br />
** V' -> Gelb-Blau Bundheit<br />
** Ergebnis<br />
*** Wesentlich besseres Darstellung der Empfindung (Faktor 10 gegenüber dem XYZ-System)<br />
* verbesserte Lösung<br />
** verwenden einer nicht linearen Abbildung (Auge wird mit berücksichtigt)<br />
<br />
== L*a*b* oder CIELAB-Raum ==<br />
* Gegenfarbmodell<br />
* empfindungsmäßig gleichabständiger Raum<br />
* Grundsätzlich zur Angabe von Farbabweichungen verwendet<br />
** Geeignet zur Bewertung von Druckern, Monitoren und Abweichungen von Nachfärbungen<br />
* als Farbdifferenzmaß wird der euklidische Abstand benutzt (<1 nicht mehr Wahrnehmbar)<br />
<br />
== L*u*v* oder CIELUV ==<br />
* für additive Mischung vorgesehen<br />
* wie der CIELAB- Raum ein empfindungsmäßiger gleichabständiger Raum<br />
<br />
== YCbCr - Crominanzwertsystem ==<br />
* Entwickelt damit Farbfernsehen und S/W-Fernsehen Parallel betrieben werden konnten<br />
* Crominanzwerte<br />
** sind von Leuchtdichte befreite Werte<br />
** verschwinden für alle unbunten Farben<br />
** Cr= R-Y, Cg = G-Y, Cb = B-Y<br />
** Das System aus CrCbCg und Y ist überbestimmt => Es reicht die Übetragung von Cr , Cb und Y<br />
* Da das Auge auf Helligkeitsunterschiede empfindlicher reagiert als auf Farbunterschiede können die Crominanzwerte mit geringerer Auflösung übertragen werden<br />
<br />
== ΘSY - System ==<br />
* Der Bunttonwinkel Θ berechnet sich aus dem Verhältnis der Crominanzwerte Cb und Cr<br />
* Die Sättigung S ist der Betrag des Vektors CrCb<br />
<br />
== HSI - Farbraum ==<br />
* Intensität: <math> I= \frac{R+G+B}{3} </math><br />
* Sättigung: <math> S = 1 - 3 \cdot min (r,g,b) </math><br />
* Hue: <math> H= \left\{ \begin{matrix}\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B\le G \\ 2\pi -\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B>G \end{matrix}\right . </math><br />
* Raum ist nicht gleichmäßig gefüllt<br />
* bei kleinen Intensitäten I in Buntton und Sättigung Instabil<br />
* Es kann bei Farbmanipulationen dazu führen das es keine Entsprechungen im RGB gibt<br />
** Lösungen:<br />
*** Dachförmige Begrenzung des HSI Raums -> sehr Aufwendig<br />
*** Normieren der Intensitäten -> Bild kann ins dunkle verschoben werden<br />
*** Maximalwert setzen -> Falsche Farbwerte (werden ins unbunte verschoben)<br />
*** proportionales skalieren bis Farbe im RGB-Würfel liegt<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
<br />
== HSL - Farbraum ==<br />
* Gern für Computergrafik verwendet<br />
* einfache Beziehungen<br />
* Die Verwendeten Biegriffe H,S,L entsprechen nicht der Bedeutung in der Farblehre und Form des Raumes<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
* Buntton ist extrem instabil bei kleinen Sättigungen<br />
* Form des Raumes ist unpraktisch<br />
<br />
= Farbmessung (GF 1 - 11) =<br />
<br />
* Farbmessung = Ermittlung der drei zu einer Farbvalenz gehörigen Farbmaßzahlen<br />
* 3 Messmethoden: <br />
** Vergleichsmethode oder Gleichheitsverfahren<br />
** Spektralverfahren<br />
** Dreibereichsverfahren<br />
<br />
== Gleichheitsverfahren ==<br />
<br />
* Vergleiche:<br />
** Vorlage mit additivem Gemisch<br />
** Vorlage mit Farbmusterkarten (DIN-Karten)<br />
* unverzichtbar bei physiologischen Untersuchungen<br />
* aufwendig und bei kleinen Probandengruppen ungenau<br />
* d.h. für technische Messungen ohne Bedeutung<br />
<br />
'''Messbedingungen nach DIN:'''<br />
* helladaptiertes und blendfreies Sehen<br />
* unbunter Messraum<br />
* neutrale Gesichtsfeldumgebung mit gleicher oder etwas kleinerer Leuchtdichte als im Messfeld<br />
* gut ausgeruhtes und neutral gestimmtes Auge<br />
* farbnormalsichtiger Beobachter<br />
<br />
== Spektralverfahren ==<br />
<br />
* zu messende Farbvalenz = Summe spektraler Farbvalenzen<br />
* greift auf gemessene Normspektralwertkurven zurück<br />
<br />
# '''spektrale Messung zur Ermittlung der Farbreizfunktion <math>\varphi (\lambda) </math>'''<br />
#* Selbststrahler: direkte Messung der Strahlungsfunktion <math>\rightarrow \varphi (\lambda)= S (\lambda)</math><br />
#* remittierende Vorlage: Remissionsfunktion der Vorlage messen, d.h. Strahlungsfunktion S ist vorher zu bestimmen und aus <math>\varphi (\lambda)</math> heraus zu rechnen <math>\rightarrow \varphi (\lambda)= \beta (\lambda) \cdot S (\lambda)</math><br />
# '''farbvalenzmetrische Auswertung'''<br />
#* wenn <math>\beta (\lambda)</math> ermittelt wurde, kann jede beliebige (tabellierte) Lichtquelle <math>S^{\ast} (\lambda)</math>eingesetzt werden<br />
#: <math><br />
\begin{bmatrix}<br />
X\\Y\\Z<br />
\end{bmatrix}<br />
= k \cdot<br />
\begin{bmatrix}<br />
\int \bar{x} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{y} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{z} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda<br />
\end{bmatrix}<br />
</math><br />
#* Normierungskonstante k:<br />
#** Selbststrahler: nur Farbwertanteile gefragt, d.h. k ist beliebig<br />
#** Körperfarben: Y für mattweißen Körper = 100, d.h. <math>k=\frac{100}{\int {S(\lambda) \cdot \bar{y}(\lambda) d \lambda}}</math><br />
<br />
'''Messgeometrien:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bildergalerie (45°,8°,Transmission) </span><br />
<br />
* ''45°-Geometrie'': Beleuchtung unter 45° schließt Glanzeinfluss aus <math>\rightarrow</math> Sensor blickt senkrecht auf Probe<br />
* ''8°-Geometrie'': Beleuchtung diffus über Ulbricht-Kugel <math>\rightarrow</math> Sensor blickt unter 8° auf Probe; Messung mit/ohne Glanz möglich<br />
* ''Transmissionsgeometrie'': Probe wird durchleuchtet<br />
<br />
== Dreibereichsverfahren ==<br />
* die drei Farbwerte werden direkt photometrisch gemessen<br />
* Filter und spektrale Empfindlichkeite der Strahlungsempfänger müssen an die spektrale Bewertungsfunktion angepasst sein<br />
* '''Luther-Bedingung:''' <math> \tau_x(\lambda) = \frac{c_x \cdot x(\lambda)}{s_1(\lambda)}</math><br />
** <math> \tau_x(\lambda) </math> ... Filtertransmission<br />
** <math>s_1(\lambda)</math> ... Sensorempfindlichkeit (hier im ersten Kanal)<br />
** <math>c_x</math> ... Gerätekonstante<br />
** Für den Y und Z Kanal ist die Formel analog<br />
* Der notwendige Filter kann gut durch ein Set von Schmalbandigen Filtern realisiert werden<br />
<br />
== Spektralmaskenverfahren ==<br />
<br />
* spezielles Dreibereichsverfahren<br />
* Lichtzerlegung erfolgt mit einem Prisma<br />
* Das zerlegte Lich beleuchtet eine Maske (Papier, Plaste, Metal .... ne richtige echte Maske)<br />
* Messen der spektralen Verteilung (CCD-Zeile)<br />
* Ähnlich dem Spektralverfahren nur das das spektrum bereits im analogen entsprechend gewichtet wird<br />
<br />
== Metamerie ==<br />
* zwei Farbproben die bei einer bestimmten Beleuchtung gleich aussehen können bei einer anderen Beleuchtung ganz anderst aussehen<br />
* Der Metermarie-Index beschreibt diesen durch Beleuchtungswechsel entstehenden Farbwechsel<br />
* KEIN Maß für die Farbkonstantheit sondern für den Unterschied von zwei Proben<br />
* Berechnung erfolgt im L*a*b* Raum <br> <math> M_T = \sqrt {(L_{1T}-L_{2T}+L_{2B}-L_{1B})^2 +(a_{1T}-a_{2T}+a_{2B}-a_{1B})^2+(b_{1T}-b_{2T}+b_{2B}-b_{1B})^2 } </math><br />
** T ... Testlicht<br />
** B ... Bezugslicht<br />
** 1,2 ... Probennummern<br />
<br />
= Klassifikation von Messaufgaben (GF 82 - 86) =<br />
<br />
# Messung von objektiven Eigenschaften, die sich in der Veränderung spektraler Charakteristika niederschlagen<br />
#* vordergründig ist Zusammenhang zwischen Veränderungen in den physikalischen Eigenschaften von Interesse (z.B. Waferinspektion)<br />
#* Zusammenhang sollte eindeutig und von hinreichender Empfindlichkeit sein<br />
#* Wahrnehmung unterschiedlicher Farben eher Nebeneffekt<br />
# Überwachung der Stabilität von farblichen Erscheinungen<br />
#* ist bei einer oder mehreren Beleuchtungen zu überwachen<br />
#* absolute Farbmessung nicht nötig; "Anlernen" auf Farben genügt<br />
#* Abstände im Farbempfinden müssen sich in gleicher Weise in Veränderungen der Sensorsignale wiederspiegeln<br />
# absolute Farbmessung<br />
#* d.h. Ermittlung der korrekten Farbvalenz unter beliebigen Messbedingungen<br />
#* Spektralwertkurven müssen realisiert werden<br />
# Messung des spektralen Remissions- und/oder Transmissionsverhaltens von Materialien<br />
#* ausschließlich spektrale Messverfahren<br />
#* Messung der Strahlungsfunktion und der remittierten Leistungsdichte<br />
#* Berechnung der Farbvalenz bei beliebiger Beleuchtung und des Metamerie-Index<br />
<br />
'''steigende Ansprüche mit steigender Nummerierung'''<br />
<br />
= Einfache Farbkalibrierung (GF 16 - 41) =<br />
* Farben sollen möglichst exakt Wiedergegeben werden<br />
<br />
== Ausgleich von Beleuchtungseinflüssen ==<br />
* Körperfarben werden durch ihre Remmision bestimmt <math> \beta </math><br />
* Bei unterschiedlicher Beleuchtung sehen Farben unterschiedlich aus aber das Auge kann sich an die Beleuchtung adaptieren<br />
** Funktioniert bei Fotos aber nicht -> Beleuchtungsausgleich ist wichtig<br />
** Bei Farbvergleich noch viel mehr<br />
** Wird realisiert durch Weißabgleich (auf integraler Farbebene nicht möglich )<br />
* Direkte Vermessung der spektralen Eingenschaften der Kamera nicht möglich (Da Werte in Kamera bereits verrechnet werden um z.B. die negativen Anteile der Spektralkurven zu realisieren)<br />
** sehr Aufwendig (Kamera auseinanderbasteln um an die echten werte zu kommen + das durchgehen durch das Spektrum in kleinen Schritten)<br />
* Daher Verwendung von Testfarben<br />
** Führt auf Lösung eines linearen Gleichungssystem<br />
** Für menschliches empfinden -> Optimieren im CIELAB-Raum<br />
* Vorsicht bei nichtlinearen Funktionen zur Farbkalibrierung -> Kann bei zu wenig Testfarben zu total falschen Ergebnissen führen !!<br />
<br />
= Color Management (F CM 1 - 20) =<br />
* verschiedene Geräte können verschiedenen Farben darstellen<br />
* verschiedene Geräte verwenden andere Grundfarben zum mischen<br />
* Mit Hilfe von Profilen (Tabellierung der Farbwerteumrechnungen) wird eine Konvertierung der Farben vom Geräteraum in den CIELab Raum bzw umgekehrt durchgeführt<br />
* in den Profilen wird auch vermerkt welche Farben darstellbar sind und welche nicht<br />
* Somit kann man eine "Druckvorschau" auch auf einem Monitor erreichen (natürlich nur für Farben die auf beiden Geräten dargestellt werden können)<br />
** Jedes Mapping der Farben (Gamut-Mapping stellt somit einen Kompromiss dar)<br />
**# Perceptual (Die Farbbeziehungen untereinander werden erhalten) Komprimierung des Gamuts bis er in den zur Darstellung verwendeten passt<br />
**# Colometrisch -> Exakte Reproduktion aller in beiden Gamuts darstellbaren Farben<br />
**## relativ -> weiß wird auf weiß abgebildet und alle anderen Farben relativ dazu<br />
**## absoult farbmetrisch<br />
**# Saturation, alle Farben außerhalb des Zielgamuts werden zugunsten der Sättiung verändert<br />
* Kalibrierung -> Versetzen des Gerätes in einen definierten, reproduzierbaren Zustand<br />
* Charakterisierung -> Modellierung eines Gerätes welches sich ein einem stabilen definierten Zustand befindet<br />
<br />
= Kameras (GF_Ka 1 - 12) =<br />
<br />
'''Einsatzfelder:'''<br />
* ortsaufgelöste Messung von Farbe<br />
* Aufnahme und Wiedergabe von True-Color Bildern<br />
* Aufnahme farbiger oder mehrkanaliger Bilder für die Verarbeitung/Analyse (Qualitätssicherung)<br />
* Photogrammetrische Anwendungen (Lösung des Korrespondenzproblems)<br />
* Radiometrische Anwendungen (Messen im Spektralbereich)<br />
<br />
'''Dreibereichsmessung:'''<br />
* setzt die Trennung von drei sich überlappenden Spektralbereichen voraus, die dann wellenlängenabhängig zu bewerten und zu integrieren sind<br />
<br />
== Dreichip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* optische Kanaltrennung und Bewertung<br />
* beste Bildqualität, da hohe Auflösung in allen drei Kanälen<br />
* keinen örtlichen Versatz der Pixel in den drei Farbauszügen<br />
* Filter einfacher und präziser zu realisieren<br />
* befinden sich z.B. als dichroitische Spiegel auf den Strahteilerprismen<br />
<br />
<span style="color:#ee0000;"> \\ Hot-Mirror-, Cold-Mirror-Korrektur????</span><br />
<br />
== Einchip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: doppelte Anzahl grüner Pixel wegen Schärfe, MTF des Auges </span><br />
<br />
* örtliche Kanaltrennung und Bewertung<br />
* Streifen- oder Mosaikfilterstrukturen auf den einzelnen Pixeln zur örtlichen Signaltrennung<br />
* 3 oder 4 unterschiedliche spektrale Auszuüge zur Erzeugung der Farbinformation<br />
* Matrix selbst kann Interline- oder Frame-Transfer-Matrix sein<br />
* kostengünstiger und kleiner als Dreichip-Kameras<br />
* Probleme:<br />
** Farbvalenzen aus örtlich versetzten Auszügen (z.B. Farbsäume an Kanten)<br />
** nicht korrigierbare Fehler aus Nichtlinearitäten und Dunkelsignalen bei der Bildung von Mischsignalen<br />
<br />
'''generelle Anforderungen an die Signalverarbeitung:'''<br />
<br />
* primäre Kamerasignale stellen keine farbmetrische Schnittstelle zur Verfügung, d.h. alle Bewertungsfunktionen sind nicht-negativ (Spektralwertkurven fordern aber negative Wichtungen)<br />
* je nach realisierten Filtern und Genauigkeitsansprüchen <math>\rightarrow</math> lineare Matrizierung (meist Kameraintern) oder komplexere Approximation<br />
* bei hohen Genauigkeitsansprüchen <math>\rightarrow</math> Umgehung der Kamerainternen Matrizierung, weil Verstärkungsfaktoren, Toleranzen, Temperaturdrift, Langzeitstabilität etc. nicht bekannt sind<br />
* insgesamt geringe Nichtlinearitäten der CCD's können in den Ansteuerbereichen der einzelnen Kanäle zu wesentlichen Fehlern führen:<br />
** Farbvalenz ändert sich kontinuirlich mit der Shutterzeit<br />
** Pixelweise DSNU- (Dunkelsignalungleichförmigkeit) und PRNU- (Hellsignalungleichförmigkeit) Korrektur vor Erzeugung der Farbvalenz erforderlich, da sich Festmusterrauschen nicht nur auf Intensität sondern auch auf Farbart auswirkt<br />
** Dunkelsignal verdoppelt sich alle 7K, Gleichanteil wird aber geklemmt<br />
** Lichtquellentyp und Langzeitverhalten wirken sich nicht nur Intensität sondern auch auf Farbtemperatur aus<br />
<br />
'''4 spektrale Bereiche:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* vorteilhaft zur Erzeugung von Farbdifferenzsignalen für die TV-Kompatibilität<br />
* im Field-Integration-Mode werden Mischsignale gebildet, die die erforderliche Signalkorrektur für hohe Ansprüche behindern<br />
* Nichtlinearität der Ausgangsverstärker wirkt sich auf Korrektur der primären Mischsignale aus<br />
<br />
== Sequentielle Einchip-Kamera ==<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* zeitliche Kanaltrennung und Bewertung<br />
* relativ genaue Approximation der Spektralwertkurven möglich<br />
<br />
== Elektrisch steuerbare Filter ==<br />
<br />
* über die Wellenlängenabhängigkeit der Eindringtiefe der Photonen und die Steuerbarkeit der Tiefe der Potentialmulden der sensoren lassen sich steuerbare spektrale Empfindlichkeiten erzeugen<br />
<br />
= Verarbeitung von Farbbildern (1 - 31) =<br />
* Das unabhängige verarbeiten der Farbkanäle eines Farbbildes führt zu Nebeneffekten wie Farbsäume<br />
* Die höhere Vielfalt des mehrdimensionalen Raumes von Farbbildern kann Vorteilhaft genutzt werden für Pixelklassifikation, Segmentierung <br />
* Abstände, Mittlere Werte und örtliche Veränderungen sind in empfindungsmäßig gleichabständigen Räumen zu definieren und zu bewerden<br />
<br />
== Histogramme und Statistiken für Farbbilder ==<br />
* Farbbilder liefern dreidimensionale Häufigkeitsverteilungen im Farbraum → können als Approximation der entsprechenden 3D-Dichten verwendet werden<br />
* statistische Zusammenhänge zwischen den Kanälen werden in mehrdimensionalen Dichten betrachtet<br />
** Für Handauswertung meist nur 2D-Dichten, wegen der Übersicht<br />
** Für maschinelle Auswertung können diese dichten auch dreidimensional werden<br />
** für die parametrische Darstellung der Cluster werden meist multivariante Gaußverteilungen eingesetzt<br />
*** Einr Gaußverteilung ist für die Beschreibung eines Bildes mit mehreren Objekten nicht geeignet<br />
*** Die Kovarianzmatrix einer solchen "Approximation" kann aber gut zur Einschätzung der Streuung und der Mittelwerte in dem Bild eingesetzt werden<br />
<br />
=== Histogramm - Modifikationen ===<br />
* Contrast Streching, Polygonal Image Scaling, Histogram-Equalisation Siehe [[Grundlagen der Bildverarbeitung und Mustererkennung#homogene Punktoperationen|Grundlagen der Bildverarbeitung]]<br />
* Manipulation kann in verschiedenen Farbräumen ausgeführt werden (RGB,HSI,...)<br />
** In nicht empfindungsmäßig gleichabständigen Räumen muss die Transformation nicht unbedingt zum Ziel führen<br />
==== Manipulation im Farbraum RGB ====<br />
* ist der Farbraum in dem die Daten häufig vorliegen<br />
* Wirkung kann auf Grund der starken korrelation der RGB Werte bei geringen Sättigungen ausbleiben<br />
* Farbverfälschung wenn einzelne Kompontenen unabhänig von einander behandelt werden<br />
* hohes apriori-Wissen notwendig<br />
* wenn Falschfarbdarstellung gewünscht ist kann dies das mittel der Wahl sein<br />
<br />
==== Manipulationen im Farbraum HSI ====<br />
* unproblematisch in Bezug auf Farbverfälschungen<br />
* Zielsetzungen können sich einfacher beschreiben lassen (ähnelt der Beschreibung von Farbe durch den Menschen)<br />
* unabhängige Komponente (Intensität)<br />
* Kontrastverbesserung durch Sättigungsausgleich ohne Farbveränderung möglich<br />
* Stabilitätsprobleme nahe den unbunten Farben<br />
# '''Ausgleich des Intensitätshistogramms'''<br />
#* Werte möglich die keine entsprechung mehr im RGB haben → müssen geeignet herruntergerechnet werden<br />
#* bei kleinen Intensitäten sind die Bunttöne instabil → ausschließen von Veränderungen<br />
# '''Sättigungsausgleich'''<br />
#* Modifikation der Sättigung unter Beibehaltung des Bunttones<br />
#* Bei kleinen Sättigungen und kleinen Intensitäten ist der Buntton instabil → Ausschließen<br />
#* Histogramm über alle Bunttöne ist häufig verschmiert → besser Histogramm über Buntton Segmente<br />
# '''Bunttonausgleich'''<br />
#* Ziel sind Farbfalschbilder um Objekte besser unterscheiden zu können<br />
#* bei zu großen Buntton Änderungen wird die Interpretierbarkeit nur bei homogenen Flächen verbessert, meist wird sie eher verschlechtert<br />
#* Unsicherheit des Bunttons → bei geringen Sättigungen und Intensitäten ist der Buntton auszuschließen<br />
<br />
== segmentgesteuerte Farbvalenztransformationen ==<br />
* Globale Statistiken werden häufig durch nicht interressante Objekte dominiert<br />
* Ausweg ist das Betrachten von Ausschnitten und anwenden der Transformationen auf die Ausschnitte<br />
* erfordert zu erst das Segmentieren des Bildes<br />
<br />
= Referenzfreie Farbadaption auf Basis des 3D-Histogramms (HuS 32 - 39 ) =<br />
<br />
= Histogrammbasiertes Farbmatching(1 - 15) =<br />
<br />
= Störunterdrückung (SU 1 - 16) =<br />
<br />
= Kantendetektion in Farbbildern (1 - 21) =<br />
<br />
= Farbpixelklassifikation (Farbpixelklassifikation 1 - 21) =<br />
<br />
= Clusterverfahren (Farbpixelklassifikation 19 - 45) =<br />
<br />
= Segmentierung (Seg 1 - 8) =<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Grundlagen_der_Farbbildverarbeitung&diff=6980Grundlagen der Farbbildverarbeitung2009-03-14T10:53:05Z<p>DarkGhost: /* Color Management (F CM 1 - 20) */</p>
<hr />
<div>Link zum [http://www.zbs-ilmenau.de/intern/vip-toolkit/index.php Vip toolkit]<br />
= Einführung (GF_a 8 - 47) =<br />
<br />
== Geschichtliches zur Farbe ==<br />
<br />
=== Newton ===<br />
<br />
* 1672: New Theory about Light and Colours<br />
** Sonnenlicht = Mischung einzelner Farben<br />
** Spektralfarben sind objektive Eigenschaft des Lichtes<br />
<br />
[...]<br />
<br />
=== Goethe ===<br />
<br />
[...]<br />
<br />
== Begriff der Farbe ==<br />
<br />
* '''Farbe im engeren Sinn, stellt eine spezielle menschliche Sinneswahrnehmung dar'''<br />
* <math>\Phi_i = \int_{\Delta \lambda_i} \varphi_{\lambda} (\lambda) d \lambda</math><br />
* Leistungsdichte <math>\phi (\lambda)</math> stellt dagegen den Farbreiz dar, der die Farbempfindung hervorruft<br />
* Vektoren <math>\underline \Phi</math> sind je nach Dimension mehr oder minder genaue Approximationen des Farbreizes<br />
<br />
* Orientierung am menschlichen visuellen System und die Betrachtung psychologischer und physiologischer Grundlagen sind von Interesse:<br />
** zur richtigen Bewertung der Schwierigkeiten und Herausforderungen bei der Schaffung technischer Lösungen<br />
** zur Anpassung technischer Lösungen der Bildwiedergabe an das visuelle System<br />
** zur Nutzung optimaler Naturprinzipien für technische Lösungen<br />
** weil technische Systeme im allgemeinen auf dem inneren Modell des Menschen von der Welt beruhen und dieses Modell in hohem Maße durch den visuellen Kanal des Menschen beeinflusst ist<br />
** weil optoelektronische Sensoren, Bildverarbeitung und Bildanalyse wichtige Schnittstellen zwischen Mensch und Maschine darstellen<br />
**weil viele Objekteigenschaften durch visuelle Eindrücke beschrieben werden<br />
<br />
* menschliches Auge kann ca. 100 Graustufen / ca. 300 000 Farben unterscheiden<br />
<br />
* Drei grundsätzliche Anwendungen von Farbinformation:<br />
** Pseudokolorierung<br />
** Falschfarbendarstellung<br />
** Echtfarbdarstellung (True Color) <math>\rarr</math> hier Schwerpunkt<br />
<br />
== Farbtäuschung ==<br />
<br />
* Zuordnung zwischen Physik und Wahrnehmung nur eindeutig wenn bunte Dinge isoliert betrachtet werden<br />
* Werden bunte Objekte in bunte Umgebungen eingebettet/bewegt, dann können abweichende Farbwahrnehmungen auftreten, so genannte Farbtäuschungen<br />
* es existieren unterschiedliche Arten solcher Täuschungen:<br />
** ''Farbinduktion oder simultaner Farbkontrast'' (Farbe wird durch ihre Umgebung modifiziert)<br />
** ''Farbkonflikt'' (es konkurrieren verschiedene Sehinformationen miteinander)<br />
** ''Subjektive Farben'' (es werden bunte Farbtöne wahrgenommen, die nicht vorliegen)<br />
<br />
'''Simultaner Farbkontrast:'''<br />
* erstmals 1839 beschrieben<br />
* wo der Effekt entsteht (Auge, Cortex) ist unklar<br />
<br />
'''Farbinduktion:'''<br />
* bei kleinteiligen, sich wiederholenden Strukturen erfolgt Angleichung<br />
* kann zur Rauschunterdrückung oder zur Unterdrückung von Feintexturen zugunsten der Erkennung größerer Objekte wichtig sein<br />
<br />
'''Farbkonflikt:'''<br />
* Formen und Strukturen konkurrieren mit Farben ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf White'sche Illusion])<br />
<br />
'''Subjektive Farben:'''<br />
* durch Bewegung ist es möglich Farben zu erzeugen die ursprünglich nicht vorhanden waren ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf Drehwurm in Farbe])<br />
<br />
== Farbwahrnehmung beim Menschen ==<br />
<br />
[...]<br />
<br />
=== Rezeptive Wahrnehmung ===<br />
* 1807 stellte Young die Hypothese auf das Farbsehen auf drei Arten von Sinneszellen beruht (rout,grün,blau)<br />
* erst 1964 konnten dies bewiesen werden, durch die Messung der Absorptionsspektren<br />
*[[Datei:Pdt-kurven.svg]]<br />
<br />
=== Postrezeptive Wahrnehmung ===<br />
* Mit dem 3 Farbenmodell konnten einige psychologische Erscheinungen nicht erklärt werden<br />
** Es werden 4 Farben als besonderst "rein" empfunden (Rto, Geln,Grün, Blau)<br />
** Unbunte Farben werden werden als das fehlen von Farben wahrgenommen<br />
** Schwarz schein gleichberechtigt zu Weiß<br />
** keine wahrgenommene Farbe erscheint zugleich rötlich und grün<br />
* das führte zur Gegenfarbentheorie die anfangs nur Psychologisch begründet war 1958 aber physiologisch Nachgewiesen werden konnte<br />
** Rot - Grün<br />
** Gelb - Blau<br />
** Schwarz - Weiß<br />
* → CIELab-Farbraum<br />
<br />
=== Kortikale Kodierung ===<br />
* Weder die 3 Farbentheorie noch die Gegenfarbentheorie beschreiben die bewusste Wahrnehmung des Menschen<br />
* Deshalb erweitertes Modell<br />
** Farbton / Buntton beschreibt die als besonderst rein empfundenen Spektralfarben<br />
** Sättigung beschreibt wie stark eine Farbe verblasst ist<br />
** Helligkeit beschreibt, wie hell oder dunkel eine Farbe ist<br />
* Wo/Wie genau die neuronale Verarbeitung erfolgt, ist noch nicht sicher belegt<br />
<br />
== Die Ordnung in der Welt der Farben ==<br />
* Newton kannte die Wellenlänge noch nicht → er ordnete die Farben nach dem Regenbogen<br />
* Goethe verwendete das Gegenfarbenmodell<br />
* Munsell schlug 1905 ein Farbordnungssystem vor bei dem alle Abstände zwischen den Farben Empfindungsmäßig gleich sind<br />
** führt zu einem geometrisch nicht regelmäßigen Körper<br />
<br />
== Das Modell der Farbe ==<br />
* '''Definition'''<br />
** Farbe ist diejenige Gesichtsempfindung eines dem Auge strukturlos erscheinenden Teils eines Gesichtsfeldes durch die sich diser Teil bei einäugiger Betrachtung mit unbewegtem Auge von einem gleichzeitig gesehenen ebenfalls strukturlos angrenzendem Bezirk allein unterscheidet (unbunte Farben: Schwarz, Weiß und Graustufen, bunte Farben: Helligkeit; Buntheit setzt sich aus Buntton und Farbsättigung zusammen)<br />
** Farbe ist durch Helligkeit, Buntton, Sättigung eindeutig bestimmt → 3D Modell<br />
*** drei linear unabhängige Größen<br />
*** Additive Mischung zur Reproduktion von Farbe (aus Rot, Grün, Blau)<br />
*** drei linearunabhängige Größen spannen immer einen Raum auf → Rot,Grün und Blau werden die Achsen dieses Raumes<br />
<br />
=== Farbvalenz ===<br />
* Mit unserem Modell läßt sich jede Farbe als linearkombination unserer drei Basisvektoren aufschreiben<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
** <math> \vec F</math> ... Farbvalenz<br />
** <math> \vec r, \vec g, \vec b </math> ... die drei Basisvektoren die den Raum aufspannen (Rot, Grün und Blau)<br />
** <math> R,G,B, |\vec F| </math> ... die Farbwerte<br />
** <math> \vec r \cdot R, \vec g \cdot G, \vec b \cdot B </math> ... die drei Primärvalenzen<br />
* Ermittelt werden die Farbwerte mit Hilfe der Vergleichsmethode<br />
** Eine Person vergleicht ein Target mit einer Farbe die aus den drei Primärvalenzen gemischt wird<br />
** wenn die Empfindung der beiden Farben gleich ist, dann notieren wir die Werte<br />
* Innere Farbmischung<br />
** das Target wird mit weißen Licht beleuchtet und wir drehen nur an dem Farbmischgerät<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
* Äußere Farbmischung<br />
** Wir beleuchten das Target mit farbigen Lichte<br />
**<math> \vec F+ B \cdot \vec b = R \cdot \vec r + G \cdot \vec g \rightarrow \vec F = R \cdot \vec r + G \cdot \vec g - B \cdot \vec b</math><br />
<br />
=== Farbreizmetrik ===<br />
* Die Farbreizfunktion <math> \varphi_\lambda</math> beschreibt die spektrale Zusammensetzung der Farbempfindungen<br />
*# Selbstleuchtende Objekte<br />
*#* <math> S_\lambda (\lambda)</math> beschreibt die spektrale Verteilung der Quelle<br />
*#* Wahrnehmung: <math> \varphi_\lambda = S_\lambda</math><br />
*# Auflicht Vorlagen<br />
*#* <math>\beta_\lambda(\lambda)</math> beschreibt den spektralen Remisionsgrad der Vorlage<br />
*#* Wahrnehmung: Licht reflektiert von der Vorlage <math> \varphi_\lambda = S_\lambda \cdot \beta_\lambda</math><br />
*# Durchlichtvorlagen<br />
*#* <math>\tau_\lambda(\lambda)</math> spektraler Transmissionsgrad der Vorlage<br />
*#* Wahrnehmung von Licht welches die Vorlage durchdrungen hat <math>\varphi_\lambda= S_\lambda \cdot \tau_\lambda</math><br />
* Damit haben folgende Faktoren Auswirkung auf die Wahrgenommene Farbe<br />
*# Die Beleuchtung des Objektes (Spektrale Zusammensetzung des Lichtes der Lampe)<br />
*# Das Remmisionsverhalten der beleuchteten Oberfläche<br />
*# Die wellenlängenabhängige Empfindlichkeit der drei Zapfen des Auges<br />
* Es besteht die Möglichkeit die pdt Kurven direkt zur Beschreibung des Farbempfindens zu nutzen<br />
* Die Farbwerte könnte man dann wie folgt ermitteln: <math> \left(\begin{matrix}P\\D\\T\end{matrix}\right)=k\int_{380\mathit{nm}}^{780\mathit{nm}}\varphi (\lambda )\cdot \left(\begin{matrix}p(\lambda )\\d(\lambda )\\t(\lambda )\end{matrix}\right)d\lambda </math><br />
* Für die technische Darstellung von Farbe werden allerdings R,G,B werte benötigt<br />
* Die dafür notwendigen Spektralwertkurven können mit Hilfe der Vergleichsmethode ermittelt werden<br />
* Man erhält damit folgende Kurven<br />
[[Datei:SpektralwertfunktionenRGB.jpg]]<br />
* Mit der gleichen Formel wie bei der pdt Kurve lassen sich nun die R,G,B Werte rechnerisch ermitteln<br />
<br />
== Farbanalyse, Zusammenhang mit der Farbwidergabe ==<br />
* Das Kammera - Monitor System soll die Farbe exakt wiedergeben<br />
* Der Monitor verwendet EBU Phosphore für die Farbdarstellung<br />
** haben selbst Spektralwert kurven => keine Monochromatischen Lichter mehr<br />
* Die notwendigen spektralwertkurven die die Kamera realisieren muss um die Bilder auf dem Monitor exakt darzustellen lassen sich mit Hilfe der pdt Kurven herleiten (Über forderung der Gleicheit der Farben)<br />
* Sie besitzen stark negative Anteile => Auch die Filter der Kamera müssten negative Transsmissionsgrade besitzen<br />
** technisch ist das nicht möglich<br />
* es bleibt also nur die Möglichkeit die notwendigen Parameter zur Ansteuerung des Monitors aus positive one-peak Kurven zu berechnen<br />
<br />
== Subtraktive Farbmischung ==<br />
* Die Subtraktive Farbmischung lässt sich auf die Multiplikation der Transmissionsgrade zurückführen (ein Filter lässt 50% rotes licht durch, wenn man zwei dieser Filter hintereinander legt, dann geht nur noch 25% rotes Licht durch die Anordnung (0.5*0.5 = 0.25) )<br />
* wenn <math> \tau_0 </math> die Transmission eines Filters für die normierte Dicke 1 und die normiert Dichte 1 ist dann kann man<br />
** mit dem Lambertschen Absorbtionsgesetzt die Absortption von dickern/düneren Material berechnen <br> <math> \tau = [ \tau_0]^w </math><br />
*** w ... Dicke des Materials im Verhältnis zum norm Material<br />
** mit dem Beerschen Gesetz die Transmission von Meterial mit anderer Dichte berechnen <br><math> \tau = [ \tau_0]^c </math><br />
*** c... Das Verhältnis der neuen zur alten Dichte<br />
** kann man auch kombinieren zu (Lambert-Beersches Gesetz)<br />
** <math> \tau = [ \tau_0]^{c \cdot w} </math><br />
* Da sich die Transmission Multiplikativ zusammensetzt wird auch gerne mit dem logarithmus der Transmission gerechnet (optische Dichte)<br />
**<math> D = - lg \tau = lg \frac{1}{\tau}</math><br />
** Damit vereinfacht sich das Lambert-Beersche gesetz zu: <math> D = c \cdot w \cdot D_0</math><br />
* selbstverständlich sind die Transmission <math>\tau</math> und die optische Dichte D von der Wellenlänge abhänig ... zur Übersichtlichkeit wurde das in den Formeln nur weggelassen<br />
* Bei einem Papierbild kommt zu dem Filter noch die Reflexion an der Farboberfläche und an der Papieroberfläche<br />
** Beachte das Licht was an der erste Schicht wegreflektiert wird kann icht tiefer eindringen. Nur noch <math> (1-\beta)*S </math> dringt an Licht durch den ersten Filter!<br />
*** <math> \beta </math> ... Remmisionsgrad der ersten Farbe<br />
*** <math> S </math> ... Spektrale Verteilung der Lichtquelle<br />
<br />
= Farbmetrische Schnittstellen - Farbräume (GF a 49 - 55) =<br />
<br />
<pre><br />
Unterschiedliche bildgebende Systeme<br />
z.B. Farbkameras<br />
Farbscanner<br />
Spezialkameras<br />
</pre><br />
'''Widerspruch''' <math>\updownarrow</math> Farbmetrische Schnittstelle<br />
<pre><br />
Unterschiedliche Bildwiedergabesysteme<br />
"True-Color-Darstellung"<br />
- unterschiedliche Monitore, Beamer, Drucker etc.<br />
</pre><br />
<br />
== Leuchtdichte (Luminanz) ==<br />
<br />
* Luminanz Y ist die Strahlungsleistung, bewertet mit der spektralen Empfindlichkeitsfunktion des Auges für das Hellempfinden<br />
* Y ist Leistungsproportional, wenn Lichtzusammensetzung (Leistungsdichte <math>\Theta (\lambda))</math> konstant bleibt<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* Leuchtdichte berechnet sich nach dem ''Abneyschen Gesetz'':<br />
: <math> Y = L = k \cdot \underline L^T \cdot \underline F </math><br />
:* <math>\underline L^T - </math> Leuchtdichtebeiwert: gibt an wie groß der Beitrag jedes Farbwertes der Farbvalenz zum Helleindruck ist, abhängig vom gewählten Farbwiedergabesystem<br />
* Leuchtdichte L <math>\ne</math> Intensität I<br />
: <math> I = \frac 1 3 (R+G+B)</math><br />
<br />
* die perzeptuelle Antwort unseres Auges auf die Leuchtdichte wird Helligkeit (Lightness) genannt<br />
: <math><br />
L^{\star} = \begin{cases}<br />
116 \cdot \sqrt [3] {\frac Y {Y_n}} -16, & \text{wenn } \frac Y {Y_n} > 0{,}008856\\<br />
903{,}3 \cdot {\frac Y {Y_n}}, & \text{wenn } \frac Y {Y_n} \le 0{,}008856<br />
\end{cases}<br />
</math><br />
<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: Eine Quelle die nur 18% der Luminanz einer Referenz hat, erscheint uns immer noch halb so hell wie die Referenz </span><br />
<br />
== Gammakorrektur und Luma ==<br />
* '''Gammakorrektur:'''<br />
** Aufgrund der Ansteuerung von CRT Monitoren und der verwendeten Phosphore ergibt sich ungefähr eine quadratische Abhängigkeit der Luminanz vom Videosignal<br />
** Die Luminaz der drein einzelnen Farbkanäle muss den gleichen Verlauf aufweisen. Sie dürfen sich nur in ihren Maximalwerten unterscheiden!<br />
*** Sonst ist es nicht möglich die Helligkeit zu ändern und dabei die Farbe konstant zu halten<br />
** Die Gammakorrektur sorgt dafür das die Farbwiedergabe auf dem Monitor linear verläuft und nicht quadratisch<br />
*** Notwendig damit wir die gleich Wahrnehmung erzielen können als währe das Kamera-Monitor System nicht vorhanden<br />
<br />
*'''Luma:'''<br />
** Luma ist die gewichtete Summe der drei Gammakorregierten Farbwerte R',G',B'<br />
** Damit ist Luma nicht gleich Luminanz<br />
<br />
*'''Brightness'''<br />
** Brightness ist ein Begriff der beschreibt wie stark eine Fläche Licht emmitiert oder sie hell sie erscheint<br />
** Besitzt kein festes Maß und wird daher sehr frei verwendet -> HSL<br />
<br />
== Farbsysteme, Farbräume, reduzierte Farbräume ==<br />
* Die Intensität einer Farbe ist <math> I = \frac{R + G +B}{3} </math><br />
* Wählt man die Intensität konstant mit <math>I=\frac{1}{3}</math> so ergibt sich eine Ebene die den RGB-Farb Würfel Diagonal schneidet und durch die R,G,B Eckpunkte geht<br />
* Jede Farbkoordinate kann auf diese Ebene projeziert werden -> Ermöglicht die Nutzung dieser Ebene als einfache Farbtafel<br />
** Diese Ebene kann dann noch auf die 0RG- Fläche des RGB Würfels projeziert werden ohne das die Ordnung der Farben gestört werden würde -> Der Farbton einer Farbe lässt sich allein durch r und g beschreiben<br />
* in die rg-Ebene können nun alle in RGB - darstellbaren Farben und alles existierenden Farben eingetragen werden<br />
** Danach erkennt man das sich technisch mit dem RGB-System nur ein kleiner Teil der exisiterenden Farben realisieren lässt<br />
<br />
= Das Normvalenz- oder XYZ-System (GF a 76 - 86) =<br />
* Alle Farbwerte sollen durch positive Farbwerte darstellbar sein<br />
** Für Farbmessung von Interesse<br />
** Das XYZ- Dreieck muss den spektralen Kurvenzug voll umschließen<br />
* Eine weitere Forderung ist das die Leuchtdichte als unabhängige Komponete auftreten soll<br />
* Die Fläche des Dreiecks soll so klein wie möglich sein<br />
* Die dadurch berechnbaren Normalvalenzen sind physikalisch nicht erzeugbar -> Die Spektralwertkurven für das System müssen berechnet werden<br />
** Die Berechneten Spektralwertkurven sind stets nichtnegativ -> immer positive Transmissionsgrade und Sensorempfindlichkeiten<br />
[[Bild:NORMXYZ1.JPG]]<br />
* Mit dem XYZ-System kann man nun Farbdreiecke vergleichen und Bewerten<br />
** Abstände, Fehler und Systemeigenschaften sollten aber in einem empfindungsmäßig gleichabständigen Farbraum bewertet werden (u'v'w' und CIELab)<br />
* '''Optimalfarbkörper'''<br />
** Beschreibt die Grenze aller darstellbaren Körperfarben<br />
** Zur Erstellung schneidet man rechteckförmige Stückchen aus dem Spektrum von Idealweißem Licht aus<br />
<br />
== Das UVW-System ==<br />
* Informationsgehalt der Farbe für den Menschen hängt davon ab welche Farbunterschiede er wahrnehmen kann<br />
* Vor allem ist das interessant wenn Bildverarbeitungsprobleme auf der menschlichen Wahrnehmung formuliert sind<br />
* xy-Farbtafel hat starke Unterschiede zwischen örtlichen Abstenden und empfindungsmäßigen Abständen -> ungeeignet<br />
* erste Lösung<br />
** lineare Transformation<br />
** W' -> Helligkeit<br />
** U' -> Rot-Grün Bundheit<br />
** V' -> Gelb-Blau Bundheit<br />
** Ergebnis<br />
*** Wesentlich besseres Darstellung der Empfindung (Faktor 10 gegenüber dem XYZ-System)<br />
* verbesserte Lösung<br />
** verwenden einer nicht linearen Abbildung (Auge wird mit berücksichtigt)<br />
<br />
== L*a*b* oder CIELAB-Raum ==<br />
* Gegenfarbmodell<br />
* empfindungsmäßig gleichabständiger Raum<br />
* Grundsätzlich zur Angabe von Farbabweichungen verwendet<br />
** Geeignet zur Bewertung von Druckern, Monitoren und Abweichungen von Nachfärbungen<br />
* als Farbdifferenzmaß wird der euklidische Abstand benutzt (<1 nicht mehr Wahrnehmbar)<br />
<br />
== L*u*v* oder CIELUV ==<br />
* für additive Mischung vorgesehen<br />
* wie der CIELAB- Raum ein empfindungsmäßiger gleichabständiger Raum<br />
<br />
== YCbCr - Crominanzwertsystem ==<br />
* Entwickelt damit Farbfernsehen und S/W-Fernsehen Parallel betrieben werden konnten<br />
* Crominanzwerte<br />
** sind von Leuchtdichte befreite Werte<br />
** verschwinden für alle unbunten Farben<br />
** Cr= R-Y, Cg = G-Y, Cb = B-Y<br />
** Das System aus CrCbCg und Y ist überbestimmt => Es reicht die Übetragung von Cr , Cb und Y<br />
* Da das Auge auf Helligkeitsunterschiede empfindlicher reagiert als auf Farbunterschiede können die Crominanzwerte mit geringerer Auflösung übertragen werden<br />
<br />
== ΘSY - System ==<br />
* Der Bunttonwinkel Θ berechnet sich aus dem Verhältnis der Crominanzwerte Cb und Cr<br />
* Die Sättigung S ist der Betrag des Vektors CrCb<br />
<br />
== HSI - Farbraum ==<br />
* Intensität: <math> I= \frac{R+G+B}{3} </math><br />
* Sättigung: <math> S = 1 - 3 \cdot min (r,g,b) </math><br />
* Hue: <math> H= \left\{ \begin{matrix}\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B\le G \\ 2\pi -\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B>G \end{matrix}\right . </math><br />
* Raum ist nicht gleichmäßig gefüllt<br />
* bei kleinen Intensitäten I in Buntton und Sättigung Instabil<br />
* Es kann bei Farbmanipulationen dazu führen das es keine Entsprechungen im RGB gibt<br />
** Lösungen:<br />
*** Dachförmige Begrenzung des HSI Raums -> sehr Aufwendig<br />
*** Normieren der Intensitäten -> Bild kann ins dunkle verschoben werden<br />
*** Maximalwert setzen -> Falsche Farbwerte (werden ins unbunte verschoben)<br />
*** proportionales skalieren bis Farbe im RGB-Würfel liegt<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
<br />
== HSL - Farbraum ==<br />
* Gern für Computergrafik verwendet<br />
* einfache Beziehungen<br />
* Die Verwendeten Biegriffe H,S,L entsprechen nicht der Bedeutung in der Farblehre und Form des Raumes<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
* Buntton ist extrem instabil bei kleinen Sättigungen<br />
* Form des Raumes ist unpraktisch<br />
<br />
= Farbmessung (GF 1 - 11) =<br />
<br />
* Farbmessung = Ermittlung der drei zu einer Farbvalenz gehörigen Farbmaßzahlen<br />
* 3 Messmethoden: <br />
** Vergleichsmethode oder Gleichheitsverfahren<br />
** Spektralverfahren<br />
** Dreibereichsverfahren<br />
<br />
== Gleichheitsverfahren ==<br />
<br />
* Vergleiche:<br />
** Vorlage mit additivem Gemisch<br />
** Vorlage mit Farbmusterkarten (DIN-Karten)<br />
* unverzichtbar bei physiologischen Untersuchungen<br />
* aufwendig und bei kleinen Probandengruppen ungenau<br />
* d.h. für technische Messungen ohne Bedeutung<br />
<br />
'''Messbedingungen nach DIN:'''<br />
* helladaptiertes und blendfreies Sehen<br />
* unbunter Messraum<br />
* neutrale Gesichtsfeldumgebung mit gleicher oder etwas kleinerer Leuchtdichte als im Messfeld<br />
* gut ausgeruhtes und neutral gestimmtes Auge<br />
* farbnormalsichtiger Beobachter<br />
<br />
== Spektralverfahren ==<br />
<br />
* zu messende Farbvalenz = Summe spektraler Farbvalenzen<br />
* greift auf gemessene Normspektralwertkurven zurück<br />
<br />
# '''spektrale Messung zur Ermittlung der Farbreizfunktion <math>\varphi (\lambda) </math>'''<br />
#* Selbststrahler: direkte Messung der Strahlungsfunktion <math>\rightarrow \varphi (\lambda)= S (\lambda)</math><br />
#* remittierende Vorlage: Remissionsfunktion der Vorlage messen, d.h. Strahlungsfunktion S ist vorher zu bestimmen und aus <math>\varphi (\lambda)</math> heraus zu rechnen <math>\rightarrow \varphi (\lambda)= \beta (\lambda) \cdot S (\lambda)</math><br />
# '''farbvalenzmetrische Auswertung'''<br />
#* wenn <math>\beta (\lambda)</math> ermittelt wurde, kann jede beliebige (tabellierte) Lichtquelle <math>S^{\ast} (\lambda)</math>eingesetzt werden<br />
#: <math><br />
\begin{bmatrix}<br />
X\\Y\\Z<br />
\end{bmatrix}<br />
= k \cdot<br />
\begin{bmatrix}<br />
\int \bar{x} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{y} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{z} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda<br />
\end{bmatrix}<br />
</math><br />
#* Normierungskonstante k:<br />
#** Selbststrahler: nur Farbwertanteile gefragt, d.h. k ist beliebig<br />
#** Körperfarben: Y für mattweißen Körper = 100, d.h. <math>k=\frac{100}{\int {S(\lambda) \cdot \bar{y}(\lambda) d \lambda}}</math><br />
<br />
'''Messgeometrien:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bildergalerie (45°,8°,Transmission) </span><br />
<br />
* ''45°-Geometrie'': Beleuchtung unter 45° schließt Glanzeinfluss aus <math>\rightarrow</math> Sensor blickt senkrecht auf Probe<br />
* ''8°-Geometrie'': Beleuchtung diffus über Ulbricht-Kugel <math>\rightarrow</math> Sensor blickt unter 8° auf Probe; Messung mit/ohne Glanz möglich<br />
* ''Transmissionsgeometrie'': Probe wird durchleuchtet<br />
<br />
== Dreibereichsverfahren ==<br />
* die drei Farbwerte werden direkt photometrisch gemessen<br />
* Filter und spektrale Empfindlichkeite der Strahlungsempfänger müssen an die spektrale Bewertungsfunktion angepasst sein<br />
* '''Luther-Bedingung:''' <math> \tau_x(\lambda) = \frac{c_x \cdot x(\lambda)}{s_1(\lambda)}</math><br />
** <math> \tau_x(\lambda) </math> ... Filtertransmission<br />
** <math>s_1(\lambda)</math> ... Sensorempfindlichkeit (hier im ersten Kanal)<br />
** <math>c_x</math> ... Gerätekonstante<br />
** Für den Y und Z Kanal ist die Formel analog<br />
* Der notwendige Filter kann gut durch ein Set von Schmalbandigen Filtern realisiert werden<br />
<br />
== Spektralmaskenverfahren ==<br />
<br />
* spezielles Dreibereichsverfahren<br />
* Lichtzerlegung erfolgt mit einem Prisma<br />
* Das zerlegte Lich beleuchtet eine Maske (Papier, Plaste, Metal .... ne richtige echte Maske)<br />
* Messen der spektralen Verteilung (CCD-Zeile)<br />
* Ähnlich dem Spektralverfahren nur das das spektrum bereits im analogen entsprechend gewichtet wird<br />
<br />
== Metamerie ==<br />
* zwei Farbproben die bei einer bestimmten Beleuchtung gleich aussehen können bei einer anderen Beleuchtung ganz anderst aussehen<br />
* Der Metermarie-Index beschreibt diesen durch Beleuchtungswechsel entstehenden Farbwechsel<br />
* KEIN Maß für die Farbkonstantheit sondern für den Unterschied von zwei Proben<br />
* Berechnung erfolgt im L*a*b* Raum <br> <math> M_T = \sqrt {(L_{1T}-L_{2T}+L_{2B}-L_{1B})^2 +(a_{1T}-a_{2T}+a_{2B}-a_{1B})^2+(b_{1T}-b_{2T}+b_{2B}-b_{1B})^2 } </math><br />
** T ... Testlicht<br />
** B ... Bezugslicht<br />
** 1,2 ... Probennummern<br />
<br />
= Klassifikation von Messaufgaben (GF 82 - 86) =<br />
<br />
# Messung von objektiven Eigenschaften, die sich in der Veränderung spektraler Charakteristika niederschlagen<br />
#* vordergründig ist Zusammenhang zwischen Veränderungen in den physikalischen Eigenschaften von Interesse (z.B. Waferinspektion)<br />
#* Zusammenhang sollte eindeutig und von hinreichender Empfindlichkeit sein<br />
#* Wahrnehmung unterschiedlicher Farben eher Nebeneffekt<br />
# Überwachung der Stabilität von farblichen Erscheinungen<br />
#* ist bei einer oder mehreren Beleuchtungen zu überwachen<br />
#* absolute Farbmessung nicht nötig; "Anlernen" auf Farben genügt<br />
#* Abstände im Farbempfinden müssen sich in gleicher Weise in Veränderungen der Sensorsignale wiederspiegeln<br />
# absolute Farbmessung<br />
#* d.h. Ermittlung der korrekten Farbvalenz unter beliebigen Messbedingungen<br />
#* Spektralwertkurven müssen realisiert werden<br />
# Messung des spektralen Remissions- und/oder Transmissionsverhaltens von Materialien<br />
#* ausschließlich spektrale Messverfahren<br />
#* Messung der Strahlungsfunktion und der remittierten Leistungsdichte<br />
#* Berechnung der Farbvalenz bei beliebiger Beleuchtung und des Metamerie-Index<br />
<br />
'''steigende Ansprüche mit steigender Nummerierung'''<br />
<br />
= Einfache Farbkalibrierung (GF 16 - 41) =<br />
* Farben sollen möglichst exakt Wiedergegeben werden<br />
<br />
== Ausgleich von Beleuchtungseinflüssen ==<br />
* Körperfarben werden durch ihre Remmision bestimmt <math> \beta </math><br />
* Bei unterschiedlicher Beleuchtung sehen Farben unterschiedlich aus aber das Auge kann sich an die Beleuchtung adaptieren<br />
** Funktioniert bei Fotos aber nicht -> Beleuchtungsausgleich ist wichtig<br />
** Bei Farbvergleich noch viel mehr<br />
** Wird realisiert durch Weißabgleich (auf integraler Farbebene nicht möglich )<br />
* Direkte Vermessung der spektralen Eingenschaften der Kamera nicht möglich (Da Werte in Kamera bereits verrechnet werden um z.B. die negativen Anteile der Spektralkurven zu realisieren)<br />
** sehr Aufwendig (Kamera auseinanderbasteln um an die echten werte zu kommen + das durchgehen durch das Spektrum in kleinen Schritten)<br />
* Daher Verwendung von Testfarben<br />
** Führt auf Lösung eines linearen Gleichungssystem<br />
** Für menschliches empfinden -> Optimieren im CIELAB-Raum<br />
* Vorsicht bei nichtlinearen Funktionen zur Farbkalibrierung -> Kann bei zu wenig Testfarben zu total falschen Ergebnissen führen !!<br />
<br />
= Color Management (F CM 1 - 20) =<br />
* verschiedene Geräte können verschiedenen Farben darstellen<br />
* verschiedene Geräte verwenden andere Grundfarben zum mischen<br />
* Mit Hilfe von Profilen (Tabellierung der Farbwerteumrechnungen) wird eine Konvertierung der Farben vom Geräteraum in den CIELab Raum bzw umgekehrt durchgeführt<br />
* in den Profilen wird auch vermerkt welche Farben darstellbar sind und welche nicht<br />
* Somit kann man eine "Druckvorschau" auch auf einem Monitor erreichen (natürlich nur für Farben die auf beiden Geräten dargestellt werden können)<br />
** Jedes Mapping der Farben (Gamut-Mapping stellt somit einen Kompromiss dar)<br />
**# Perceptual (Die Farbbeziehungen untereinander werden erhalten) Komprimierung des Gamuts bis er in den zur Darstellung verwendeten passt<br />
**# Colometrisch -> Exakte Reproduktion aller in beiden Gamuts darstellbaren Farben<br />
**## relativ -> weiß wird auf weiß abgebildet und alle anderen Farben relativ dazu<br />
**## absoult farbmetrisch<br />
**# Saturation, alle Farben außerhalb des Zielgamuts werden zugunsten der Sättiung verändert<br />
* Kalibrierung -> Versetzen des Gerätes in einen definierten, reproduzierbaren Zustand<br />
* Charakterisierung -> Modellierung eines Gerätes welches sich ein einem stabilen definierten Zustand befindet<br />
<br />
= Kameras (GF_Ka 1 - 12) =<br />
<br />
'''Einsatzfelder:'''<br />
* ortsaufgelöste Messung von Farbe<br />
* Aufnahme und Wiedergabe von True-Color Bildern<br />
* Aufnahme farbiger oder mehrkanaliger Bilder für die Verarbeitung/Analyse (Qualitätssicherung)<br />
* Photogrammetrische Anwendungen (Lösung des Korrespondenzproblems)<br />
* Radiometrische Anwendungen (Messen im Spektralbereich)<br />
<br />
'''Dreibereichsmessung:'''<br />
* setzt die Trennung von drei sich überlappenden Spektralbereichen voraus, die dann wellenlängenabhängig zu bewerten und zu integrieren sind<br />
<br />
== Dreichip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* optische Kanaltrennung und Bewertung<br />
* beste Bildqualität, da hohe Auflösung in allen drei Kanälen<br />
* keinen örtlichen Versatz der Pixel in den drei Farbauszügen<br />
* Filter einfacher und präziser zu realisieren<br />
* befinden sich z.B. als dichroitische Spiegel auf den Strahteilerprismen<br />
<br />
<span style="color:#ee0000;"> \\ Hot-Mirror-, Cold-Mirror-Korrektur????</span><br />
<br />
== Einchip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: doppelte Anzahl grüner Pixel wegen Schärfe, MTF des Auges </span><br />
<br />
* örtliche Kanaltrennung und Bewertung<br />
* Streifen- oder Mosaikfilterstrukturen auf den einzelnen Pixeln zur örtlichen Signaltrennung<br />
* 3 oder 4 unterschiedliche spektrale Auszuüge zur Erzeugung der Farbinformation<br />
* Matrix selbst kann Interline- oder Frame-Transfer-Matrix sein<br />
* kostengünstiger und kleiner als Dreichip-Kameras<br />
* Probleme:<br />
** Farbvalenzen aus örtlich versetzten Auszügen (z.B. Farbsäume an Kanten)<br />
** nicht korrigierbare Fehler aus Nichtlinearitäten und Dunkelsignalen bei der Bildung von Mischsignalen<br />
<br />
'''generelle Anforderungen an die Signalverarbeitung:'''<br />
<br />
* primäre Kamerasignale stellen keine farbmetrische Schnittstelle zur Verfügung, d.h. alle Bewertungsfunktionen sind nicht-negativ (Spektralwertkurven fordern aber negative Wichtungen)<br />
* je nach realisierten Filtern und Genauigkeitsansprüchen <math>\rightarrow</math> lineare Matrizierung (meist Kameraintern) oder komplexere Approximation<br />
* bei hohen Genauigkeitsansprüchen <math>\rightarrow</math> Umgehung der Kamerainternen Matrizierung, weil Verstärkungsfaktoren, Toleranzen, Temperaturdrift, Langzeitstabilität etc. nicht bekannt sind<br />
* insgesamt geringe Nichtlinearitäten der CCD's können in den Ansteuerbereichen der einzelnen Kanäle zu wesentlichen Fehlern führen:<br />
** Farbvalenz ändert sich kontinuirlich mit der Shutterzeit<br />
** Pixelweise DSNU- (Dunkelsignalungleichförmigkeit) und PRNU- (Hellsignalungleichförmigkeit) Korrektur vor Erzeugung der Farbvalenz erforderlich, da sich Festmusterrauschen nicht nur auf Intensität sondern auch auf Farbart auswirkt<br />
** Dunkelsignal verdoppelt sich alle 7K, Gleichanteil wird aber geklemmt<br />
** Lichtquellentyp und Langzeitverhalten wirken sich nicht nur Intensität sondern auch auf Farbtemperatur aus<br />
<br />
'''4 spektrale Bereiche:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* vorteilhaft zur Erzeugung von Farbdifferenzsignalen für die TV-Kompatibilität<br />
* im Field-Integration-Mode werden Mischsignale gebildet, die die erforderliche Signalkorrektur für hohe Ansprüche behindern<br />
* Nichtlinearität der Ausgangsverstärker wirkt sich auf Korrektur der primären Mischsignale aus<br />
<br />
== Sequentielle Einchip-Kamera ==<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* zeitliche Kanaltrennung und Bewertung<br />
* relativ genaue Approximation der Spektralwertkurven möglich<br />
<br />
== Elektrisch steuerbare Filter ==<br />
<br />
* über die Wellenlängenabhängigkeit der Eindringtiefe der Photonen und die Steuerbarkeit der Tiefe der Potentialmulden der sensoren lassen sich steuerbare spektrale Empfindlichkeiten erzeugen<br />
<br />
= Verarbeitung von Farbbildern (1 - 31) =<br />
<br />
= Referenzfreie Farbadaption auf Basis des 3D-Histogramms (HuS 32 - 39 ) =<br />
<br />
= Histogrammbasiertes Farbmatching(1 - 15) =<br />
<br />
= Störunterdrückung (SU 1 - 16) =<br />
<br />
= Kantendetektion in Farbbildern (1 - 21) =<br />
<br />
= Farbpixelklassifikation (Farbpixelklassifikation 1 - 21) =<br />
<br />
= Clusterverfahren (Farbpixelklassifikation 19 - 45) =<br />
<br />
= Segmentierung (Seg 1 - 8) =<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Grundlagen_der_Farbbildverarbeitung&diff=6979Grundlagen der Farbbildverarbeitung2009-03-14T09:49:29Z<p>DarkGhost: /* Einfache Farbkalibrierung (GF 16 - 41) */</p>
<hr />
<div>Link zum [http://www.zbs-ilmenau.de/intern/vip-toolkit/index.php Vip toolkit]<br />
= Einführung (GF_a 8 - 47) =<br />
<br />
== Geschichtliches zur Farbe ==<br />
<br />
=== Newton ===<br />
<br />
* 1672: New Theory about Light and Colours<br />
** Sonnenlicht = Mischung einzelner Farben<br />
** Spektralfarben sind objektive Eigenschaft des Lichtes<br />
<br />
[...]<br />
<br />
=== Goethe ===<br />
<br />
[...]<br />
<br />
== Begriff der Farbe ==<br />
<br />
* '''Farbe im engeren Sinn, stellt eine spezielle menschliche Sinneswahrnehmung dar'''<br />
* <math>\Phi_i = \int_{\Delta \lambda_i} \varphi_{\lambda} (\lambda) d \lambda</math><br />
* Leistungsdichte <math>\phi (\lambda)</math> stellt dagegen den Farbreiz dar, der die Farbempfindung hervorruft<br />
* Vektoren <math>\underline \Phi</math> sind je nach Dimension mehr oder minder genaue Approximationen des Farbreizes<br />
<br />
* Orientierung am menschlichen visuellen System und die Betrachtung psychologischer und physiologischer Grundlagen sind von Interesse:<br />
** zur richtigen Bewertung der Schwierigkeiten und Herausforderungen bei der Schaffung technischer Lösungen<br />
** zur Anpassung technischer Lösungen der Bildwiedergabe an das visuelle System<br />
** zur Nutzung optimaler Naturprinzipien für technische Lösungen<br />
** weil technische Systeme im allgemeinen auf dem inneren Modell des Menschen von der Welt beruhen und dieses Modell in hohem Maße durch den visuellen Kanal des Menschen beeinflusst ist<br />
** weil optoelektronische Sensoren, Bildverarbeitung und Bildanalyse wichtige Schnittstellen zwischen Mensch und Maschine darstellen<br />
**weil viele Objekteigenschaften durch visuelle Eindrücke beschrieben werden<br />
<br />
* menschliches Auge kann ca. 100 Graustufen / ca. 300 000 Farben unterscheiden<br />
<br />
* Drei grundsätzliche Anwendungen von Farbinformation:<br />
** Pseudokolorierung<br />
** Falschfarbendarstellung<br />
** Echtfarbdarstellung (True Color) <math>\rarr</math> hier Schwerpunkt<br />
<br />
== Farbtäuschung ==<br />
<br />
* Zuordnung zwischen Physik und Wahrnehmung nur eindeutig wenn bunte Dinge isoliert betrachtet werden<br />
* Werden bunte Objekte in bunte Umgebungen eingebettet/bewegt, dann können abweichende Farbwahrnehmungen auftreten, so genannte Farbtäuschungen<br />
* es existieren unterschiedliche Arten solcher Täuschungen:<br />
** ''Farbinduktion oder simultaner Farbkontrast'' (Farbe wird durch ihre Umgebung modifiziert)<br />
** ''Farbkonflikt'' (es konkurrieren verschiedene Sehinformationen miteinander)<br />
** ''Subjektive Farben'' (es werden bunte Farbtöne wahrgenommen, die nicht vorliegen)<br />
<br />
'''Simultaner Farbkontrast:'''<br />
* erstmals 1839 beschrieben<br />
* wo der Effekt entsteht (Auge, Cortex) ist unklar<br />
<br />
'''Farbinduktion:'''<br />
* bei kleinteiligen, sich wiederholenden Strukturen erfolgt Angleichung<br />
* kann zur Rauschunterdrückung oder zur Unterdrückung von Feintexturen zugunsten der Erkennung größerer Objekte wichtig sein<br />
<br />
'''Farbkonflikt:'''<br />
* Formen und Strukturen konkurrieren mit Farben ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf White'sche Illusion])<br />
<br />
'''Subjektive Farben:'''<br />
* durch Bewegung ist es möglich Farben zu erzeugen die ursprünglich nicht vorhanden waren ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf Drehwurm in Farbe])<br />
<br />
== Farbwahrnehmung beim Menschen ==<br />
<br />
[...]<br />
<br />
=== Rezeptive Wahrnehmung ===<br />
* 1807 stellte Young die Hypothese auf das Farbsehen auf drei Arten von Sinneszellen beruht (rout,grün,blau)<br />
* erst 1964 konnten dies bewiesen werden, durch die Messung der Absorptionsspektren<br />
*[[Datei:Pdt-kurven.svg]]<br />
<br />
=== Postrezeptive Wahrnehmung ===<br />
* Mit dem 3 Farbenmodell konnten einige psychologische Erscheinungen nicht erklärt werden<br />
** Es werden 4 Farben als besonderst "rein" empfunden (Rto, Geln,Grün, Blau)<br />
** Unbunte Farben werden werden als das fehlen von Farben wahrgenommen<br />
** Schwarz schein gleichberechtigt zu Weiß<br />
** keine wahrgenommene Farbe erscheint zugleich rötlich und grün<br />
* das führte zur Gegenfarbentheorie die anfangs nur Psychologisch begründet war 1958 aber physiologisch Nachgewiesen werden konnte<br />
** Rot - Grün<br />
** Gelb - Blau<br />
** Schwarz - Weiß<br />
* → CIELab-Farbraum<br />
<br />
=== Kortikale Kodierung ===<br />
* Weder die 3 Farbentheorie noch die Gegenfarbentheorie beschreiben die bewusste Wahrnehmung des Menschen<br />
* Deshalb erweitertes Modell<br />
** Farbton / Buntton beschreibt die als besonderst rein empfundenen Spektralfarben<br />
** Sättigung beschreibt wie stark eine Farbe verblasst ist<br />
** Helligkeit beschreibt, wie hell oder dunkel eine Farbe ist<br />
* Wo/Wie genau die neuronale Verarbeitung erfolgt, ist noch nicht sicher belegt<br />
<br />
== Die Ordnung in der Welt der Farben ==<br />
* Newton kannte die Wellenlänge noch nicht → er ordnete die Farben nach dem Regenbogen<br />
* Goethe verwendete das Gegenfarbenmodell<br />
* Munsell schlug 1905 ein Farbordnungssystem vor bei dem alle Abstände zwischen den Farben Empfindungsmäßig gleich sind<br />
** führt zu einem geometrisch nicht regelmäßigen Körper<br />
<br />
== Das Modell der Farbe ==<br />
* '''Definition'''<br />
** Farbe ist diejenige Gesichtsempfindung eines dem Auge strukturlos erscheinenden Teils eines Gesichtsfeldes durch die sich diser Teil bei einäugiger Betrachtung mit unbewegtem Auge von einem gleichzeitig gesehenen ebenfalls strukturlos angrenzendem Bezirk allein unterscheidet (unbunte Farben: Schwarz, Weiß und Graustufen, bunte Farben: Helligkeit; Buntheit setzt sich aus Buntton und Farbsättigung zusammen)<br />
** Farbe ist durch Helligkeit, Buntton, Sättigung eindeutig bestimmt → 3D Modell<br />
*** drei linear unabhängige Größen<br />
*** Additive Mischung zur Reproduktion von Farbe (aus Rot, Grün, Blau)<br />
*** drei linearunabhängige Größen spannen immer einen Raum auf → Rot,Grün und Blau werden die Achsen dieses Raumes<br />
<br />
=== Farbvalenz ===<br />
* Mit unserem Modell läßt sich jede Farbe als linearkombination unserer drei Basisvektoren aufschreiben<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
** <math> \vec F</math> ... Farbvalenz<br />
** <math> \vec r, \vec g, \vec b </math> ... die drei Basisvektoren die den Raum aufspannen (Rot, Grün und Blau)<br />
** <math> R,G,B, |\vec F| </math> ... die Farbwerte<br />
** <math> \vec r \cdot R, \vec g \cdot G, \vec b \cdot B </math> ... die drei Primärvalenzen<br />
* Ermittelt werden die Farbwerte mit Hilfe der Vergleichsmethode<br />
** Eine Person vergleicht ein Target mit einer Farbe die aus den drei Primärvalenzen gemischt wird<br />
** wenn die Empfindung der beiden Farben gleich ist, dann notieren wir die Werte<br />
* Innere Farbmischung<br />
** das Target wird mit weißen Licht beleuchtet und wir drehen nur an dem Farbmischgerät<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
* Äußere Farbmischung<br />
** Wir beleuchten das Target mit farbigen Lichte<br />
**<math> \vec F+ B \cdot \vec b = R \cdot \vec r + G \cdot \vec g \rightarrow \vec F = R \cdot \vec r + G \cdot \vec g - B \cdot \vec b</math><br />
<br />
=== Farbreizmetrik ===<br />
* Die Farbreizfunktion <math> \varphi_\lambda</math> beschreibt die spektrale Zusammensetzung der Farbempfindungen<br />
*# Selbstleuchtende Objekte<br />
*#* <math> S_\lambda (\lambda)</math> beschreibt die spektrale Verteilung der Quelle<br />
*#* Wahrnehmung: <math> \varphi_\lambda = S_\lambda</math><br />
*# Auflicht Vorlagen<br />
*#* <math>\beta_\lambda(\lambda)</math> beschreibt den spektralen Remisionsgrad der Vorlage<br />
*#* Wahrnehmung: Licht reflektiert von der Vorlage <math> \varphi_\lambda = S_\lambda \cdot \beta_\lambda</math><br />
*# Durchlichtvorlagen<br />
*#* <math>\tau_\lambda(\lambda)</math> spektraler Transmissionsgrad der Vorlage<br />
*#* Wahrnehmung von Licht welches die Vorlage durchdrungen hat <math>\varphi_\lambda= S_\lambda \cdot \tau_\lambda</math><br />
* Damit haben folgende Faktoren Auswirkung auf die Wahrgenommene Farbe<br />
*# Die Beleuchtung des Objektes (Spektrale Zusammensetzung des Lichtes der Lampe)<br />
*# Das Remmisionsverhalten der beleuchteten Oberfläche<br />
*# Die wellenlängenabhängige Empfindlichkeit der drei Zapfen des Auges<br />
* Es besteht die Möglichkeit die pdt Kurven direkt zur Beschreibung des Farbempfindens zu nutzen<br />
* Die Farbwerte könnte man dann wie folgt ermitteln: <math> \left(\begin{matrix}P\\D\\T\end{matrix}\right)=k\int_{380\mathit{nm}}^{780\mathit{nm}}\varphi (\lambda )\cdot \left(\begin{matrix}p(\lambda )\\d(\lambda )\\t(\lambda )\end{matrix}\right)d\lambda </math><br />
* Für die technische Darstellung von Farbe werden allerdings R,G,B werte benötigt<br />
* Die dafür notwendigen Spektralwertkurven können mit Hilfe der Vergleichsmethode ermittelt werden<br />
* Man erhält damit folgende Kurven<br />
[[Datei:SpektralwertfunktionenRGB.jpg]]<br />
* Mit der gleichen Formel wie bei der pdt Kurve lassen sich nun die R,G,B Werte rechnerisch ermitteln<br />
<br />
== Farbanalyse, Zusammenhang mit der Farbwidergabe ==<br />
* Das Kammera - Monitor System soll die Farbe exakt wiedergeben<br />
* Der Monitor verwendet EBU Phosphore für die Farbdarstellung<br />
** haben selbst Spektralwert kurven => keine Monochromatischen Lichter mehr<br />
* Die notwendigen spektralwertkurven die die Kamera realisieren muss um die Bilder auf dem Monitor exakt darzustellen lassen sich mit Hilfe der pdt Kurven herleiten (Über forderung der Gleicheit der Farben)<br />
* Sie besitzen stark negative Anteile => Auch die Filter der Kamera müssten negative Transsmissionsgrade besitzen<br />
** technisch ist das nicht möglich<br />
* es bleibt also nur die Möglichkeit die notwendigen Parameter zur Ansteuerung des Monitors aus positive one-peak Kurven zu berechnen<br />
<br />
== Subtraktive Farbmischung ==<br />
* Die Subtraktive Farbmischung lässt sich auf die Multiplikation der Transmissionsgrade zurückführen (ein Filter lässt 50% rotes licht durch, wenn man zwei dieser Filter hintereinander legt, dann geht nur noch 25% rotes Licht durch die Anordnung (0.5*0.5 = 0.25) )<br />
* wenn <math> \tau_0 </math> die Transmission eines Filters für die normierte Dicke 1 und die normiert Dichte 1 ist dann kann man<br />
** mit dem Lambertschen Absorbtionsgesetzt die Absortption von dickern/düneren Material berechnen <br> <math> \tau = [ \tau_0]^w </math><br />
*** w ... Dicke des Materials im Verhältnis zum norm Material<br />
** mit dem Beerschen Gesetz die Transmission von Meterial mit anderer Dichte berechnen <br><math> \tau = [ \tau_0]^c </math><br />
*** c... Das Verhältnis der neuen zur alten Dichte<br />
** kann man auch kombinieren zu (Lambert-Beersches Gesetz)<br />
** <math> \tau = [ \tau_0]^{c \cdot w} </math><br />
* Da sich die Transmission Multiplikativ zusammensetzt wird auch gerne mit dem logarithmus der Transmission gerechnet (optische Dichte)<br />
**<math> D = - lg \tau = lg \frac{1}{\tau}</math><br />
** Damit vereinfacht sich das Lambert-Beersche gesetz zu: <math> D = c \cdot w \cdot D_0</math><br />
* selbstverständlich sind die Transmission <math>\tau</math> und die optische Dichte D von der Wellenlänge abhänig ... zur Übersichtlichkeit wurde das in den Formeln nur weggelassen<br />
* Bei einem Papierbild kommt zu dem Filter noch die Reflexion an der Farboberfläche und an der Papieroberfläche<br />
** Beachte das Licht was an der erste Schicht wegreflektiert wird kann icht tiefer eindringen. Nur noch <math> (1-\beta)*S </math> dringt an Licht durch den ersten Filter!<br />
*** <math> \beta </math> ... Remmisionsgrad der ersten Farbe<br />
*** <math> S </math> ... Spektrale Verteilung der Lichtquelle<br />
<br />
= Farbmetrische Schnittstellen - Farbräume (GF a 49 - 55) =<br />
<br />
<pre><br />
Unterschiedliche bildgebende Systeme<br />
z.B. Farbkameras<br />
Farbscanner<br />
Spezialkameras<br />
</pre><br />
'''Widerspruch''' <math>\updownarrow</math> Farbmetrische Schnittstelle<br />
<pre><br />
Unterschiedliche Bildwiedergabesysteme<br />
"True-Color-Darstellung"<br />
- unterschiedliche Monitore, Beamer, Drucker etc.<br />
</pre><br />
<br />
== Leuchtdichte (Luminanz) ==<br />
<br />
* Luminanz Y ist die Strahlungsleistung, bewertet mit der spektralen Empfindlichkeitsfunktion des Auges für das Hellempfinden<br />
* Y ist Leistungsproportional, wenn Lichtzusammensetzung (Leistungsdichte <math>\Theta (\lambda))</math> konstant bleibt<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* Leuchtdichte berechnet sich nach dem ''Abneyschen Gesetz'':<br />
: <math> Y = L = k \cdot \underline L^T \cdot \underline F </math><br />
:* <math>\underline L^T - </math> Leuchtdichtebeiwert: gibt an wie groß der Beitrag jedes Farbwertes der Farbvalenz zum Helleindruck ist, abhängig vom gewählten Farbwiedergabesystem<br />
* Leuchtdichte L <math>\ne</math> Intensität I<br />
: <math> I = \frac 1 3 (R+G+B)</math><br />
<br />
* die perzeptuelle Antwort unseres Auges auf die Leuchtdichte wird Helligkeit (Lightness) genannt<br />
: <math><br />
L^{\star} = \begin{cases}<br />
116 \cdot \sqrt [3] {\frac Y {Y_n}} -16, & \text{wenn } \frac Y {Y_n} > 0{,}008856\\<br />
903{,}3 \cdot {\frac Y {Y_n}}, & \text{wenn } \frac Y {Y_n} \le 0{,}008856<br />
\end{cases}<br />
</math><br />
<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: Eine Quelle die nur 18% der Luminanz einer Referenz hat, erscheint uns immer noch halb so hell wie die Referenz </span><br />
<br />
== Gammakorrektur und Luma ==<br />
* '''Gammakorrektur:'''<br />
** Aufgrund der Ansteuerung von CRT Monitoren und der verwendeten Phosphore ergibt sich ungefähr eine quadratische Abhängigkeit der Luminanz vom Videosignal<br />
** Die Luminaz der drein einzelnen Farbkanäle muss den gleichen Verlauf aufweisen. Sie dürfen sich nur in ihren Maximalwerten unterscheiden!<br />
*** Sonst ist es nicht möglich die Helligkeit zu ändern und dabei die Farbe konstant zu halten<br />
** Die Gammakorrektur sorgt dafür das die Farbwiedergabe auf dem Monitor linear verläuft und nicht quadratisch<br />
*** Notwendig damit wir die gleich Wahrnehmung erzielen können als währe das Kamera-Monitor System nicht vorhanden<br />
<br />
*'''Luma:'''<br />
** Luma ist die gewichtete Summe der drei Gammakorregierten Farbwerte R',G',B'<br />
** Damit ist Luma nicht gleich Luminanz<br />
<br />
*'''Brightness'''<br />
** Brightness ist ein Begriff der beschreibt wie stark eine Fläche Licht emmitiert oder sie hell sie erscheint<br />
** Besitzt kein festes Maß und wird daher sehr frei verwendet -> HSL<br />
<br />
== Farbsysteme, Farbräume, reduzierte Farbräume ==<br />
* Die Intensität einer Farbe ist <math> I = \frac{R + G +B}{3} </math><br />
* Wählt man die Intensität konstant mit <math>I=\frac{1}{3}</math> so ergibt sich eine Ebene die den RGB-Farb Würfel Diagonal schneidet und durch die R,G,B Eckpunkte geht<br />
* Jede Farbkoordinate kann auf diese Ebene projeziert werden -> Ermöglicht die Nutzung dieser Ebene als einfache Farbtafel<br />
** Diese Ebene kann dann noch auf die 0RG- Fläche des RGB Würfels projeziert werden ohne das die Ordnung der Farben gestört werden würde -> Der Farbton einer Farbe lässt sich allein durch r und g beschreiben<br />
* in die rg-Ebene können nun alle in RGB - darstellbaren Farben und alles existierenden Farben eingetragen werden<br />
** Danach erkennt man das sich technisch mit dem RGB-System nur ein kleiner Teil der exisiterenden Farben realisieren lässt<br />
<br />
= Das Normvalenz- oder XYZ-System (GF a 76 - 86) =<br />
* Alle Farbwerte sollen durch positive Farbwerte darstellbar sein<br />
** Für Farbmessung von Interesse<br />
** Das XYZ- Dreieck muss den spektralen Kurvenzug voll umschließen<br />
* Eine weitere Forderung ist das die Leuchtdichte als unabhängige Komponete auftreten soll<br />
* Die Fläche des Dreiecks soll so klein wie möglich sein<br />
* Die dadurch berechnbaren Normalvalenzen sind physikalisch nicht erzeugbar -> Die Spektralwertkurven für das System müssen berechnet werden<br />
** Die Berechneten Spektralwertkurven sind stets nichtnegativ -> immer positive Transmissionsgrade und Sensorempfindlichkeiten<br />
[[Bild:NORMXYZ1.JPG]]<br />
* Mit dem XYZ-System kann man nun Farbdreiecke vergleichen und Bewerten<br />
** Abstände, Fehler und Systemeigenschaften sollten aber in einem empfindungsmäßig gleichabständigen Farbraum bewertet werden (u'v'w' und CIELab)<br />
* '''Optimalfarbkörper'''<br />
** Beschreibt die Grenze aller darstellbaren Körperfarben<br />
** Zur Erstellung schneidet man rechteckförmige Stückchen aus dem Spektrum von Idealweißem Licht aus<br />
<br />
== Das UVW-System ==<br />
* Informationsgehalt der Farbe für den Menschen hängt davon ab welche Farbunterschiede er wahrnehmen kann<br />
* Vor allem ist das interessant wenn Bildverarbeitungsprobleme auf der menschlichen Wahrnehmung formuliert sind<br />
* xy-Farbtafel hat starke Unterschiede zwischen örtlichen Abstenden und empfindungsmäßigen Abständen -> ungeeignet<br />
* erste Lösung<br />
** lineare Transformation<br />
** W' -> Helligkeit<br />
** U' -> Rot-Grün Bundheit<br />
** V' -> Gelb-Blau Bundheit<br />
** Ergebnis<br />
*** Wesentlich besseres Darstellung der Empfindung (Faktor 10 gegenüber dem XYZ-System)<br />
* verbesserte Lösung<br />
** verwenden einer nicht linearen Abbildung (Auge wird mit berücksichtigt)<br />
<br />
== L*a*b* oder CIELAB-Raum ==<br />
* Gegenfarbmodell<br />
* empfindungsmäßig gleichabständiger Raum<br />
* Grundsätzlich zur Angabe von Farbabweichungen verwendet<br />
** Geeignet zur Bewertung von Druckern, Monitoren und Abweichungen von Nachfärbungen<br />
* als Farbdifferenzmaß wird der euklidische Abstand benutzt (<1 nicht mehr Wahrnehmbar)<br />
<br />
== L*u*v* oder CIELUV ==<br />
* für additive Mischung vorgesehen<br />
* wie der CIELAB- Raum ein empfindungsmäßiger gleichabständiger Raum<br />
<br />
== YCbCr - Crominanzwertsystem ==<br />
* Entwickelt damit Farbfernsehen und S/W-Fernsehen Parallel betrieben werden konnten<br />
* Crominanzwerte<br />
** sind von Leuchtdichte befreite Werte<br />
** verschwinden für alle unbunten Farben<br />
** Cr= R-Y, Cg = G-Y, Cb = B-Y<br />
** Das System aus CrCbCg und Y ist überbestimmt => Es reicht die Übetragung von Cr , Cb und Y<br />
* Da das Auge auf Helligkeitsunterschiede empfindlicher reagiert als auf Farbunterschiede können die Crominanzwerte mit geringerer Auflösung übertragen werden<br />
<br />
== ΘSY - System ==<br />
* Der Bunttonwinkel Θ berechnet sich aus dem Verhältnis der Crominanzwerte Cb und Cr<br />
* Die Sättigung S ist der Betrag des Vektors CrCb<br />
<br />
== HSI - Farbraum ==<br />
* Intensität: <math> I= \frac{R+G+B}{3} </math><br />
* Sättigung: <math> S = 1 - 3 \cdot min (r,g,b) </math><br />
* Hue: <math> H= \left\{ \begin{matrix}\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B\le G \\ 2\pi -\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B>G \end{matrix}\right . </math><br />
* Raum ist nicht gleichmäßig gefüllt<br />
* bei kleinen Intensitäten I in Buntton und Sättigung Instabil<br />
* Es kann bei Farbmanipulationen dazu führen das es keine Entsprechungen im RGB gibt<br />
** Lösungen:<br />
*** Dachförmige Begrenzung des HSI Raums -> sehr Aufwendig<br />
*** Normieren der Intensitäten -> Bild kann ins dunkle verschoben werden<br />
*** Maximalwert setzen -> Falsche Farbwerte (werden ins unbunte verschoben)<br />
*** proportionales skalieren bis Farbe im RGB-Würfel liegt<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
<br />
== HSL - Farbraum ==<br />
* Gern für Computergrafik verwendet<br />
* einfache Beziehungen<br />
* Die Verwendeten Biegriffe H,S,L entsprechen nicht der Bedeutung in der Farblehre und Form des Raumes<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
* Buntton ist extrem instabil bei kleinen Sättigungen<br />
* Form des Raumes ist unpraktisch<br />
<br />
= Farbmessung (GF 1 - 11) =<br />
<br />
* Farbmessung = Ermittlung der drei zu einer Farbvalenz gehörigen Farbmaßzahlen<br />
* 3 Messmethoden: <br />
** Vergleichsmethode oder Gleichheitsverfahren<br />
** Spektralverfahren<br />
** Dreibereichsverfahren<br />
<br />
== Gleichheitsverfahren ==<br />
<br />
* Vergleiche:<br />
** Vorlage mit additivem Gemisch<br />
** Vorlage mit Farbmusterkarten (DIN-Karten)<br />
* unverzichtbar bei physiologischen Untersuchungen<br />
* aufwendig und bei kleinen Probandengruppen ungenau<br />
* d.h. für technische Messungen ohne Bedeutung<br />
<br />
'''Messbedingungen nach DIN:'''<br />
* helladaptiertes und blendfreies Sehen<br />
* unbunter Messraum<br />
* neutrale Gesichtsfeldumgebung mit gleicher oder etwas kleinerer Leuchtdichte als im Messfeld<br />
* gut ausgeruhtes und neutral gestimmtes Auge<br />
* farbnormalsichtiger Beobachter<br />
<br />
== Spektralverfahren ==<br />
<br />
* zu messende Farbvalenz = Summe spektraler Farbvalenzen<br />
* greift auf gemessene Normspektralwertkurven zurück<br />
<br />
# '''spektrale Messung zur Ermittlung der Farbreizfunktion <math>\varphi (\lambda) </math>'''<br />
#* Selbststrahler: direkte Messung der Strahlungsfunktion <math>\rightarrow \varphi (\lambda)= S (\lambda)</math><br />
#* remittierende Vorlage: Remissionsfunktion der Vorlage messen, d.h. Strahlungsfunktion S ist vorher zu bestimmen und aus <math>\varphi (\lambda)</math> heraus zu rechnen <math>\rightarrow \varphi (\lambda)= \beta (\lambda) \cdot S (\lambda)</math><br />
# '''farbvalenzmetrische Auswertung'''<br />
#* wenn <math>\beta (\lambda)</math> ermittelt wurde, kann jede beliebige (tabellierte) Lichtquelle <math>S^{\ast} (\lambda)</math>eingesetzt werden<br />
#: <math><br />
\begin{bmatrix}<br />
X\\Y\\Z<br />
\end{bmatrix}<br />
= k \cdot<br />
\begin{bmatrix}<br />
\int \bar{x} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{y} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{z} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda<br />
\end{bmatrix}<br />
</math><br />
#* Normierungskonstante k:<br />
#** Selbststrahler: nur Farbwertanteile gefragt, d.h. k ist beliebig<br />
#** Körperfarben: Y für mattweißen Körper = 100, d.h. <math>k=\frac{100}{\int {S(\lambda) \cdot \bar{y}(\lambda) d \lambda}}</math><br />
<br />
'''Messgeometrien:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bildergalerie (45°,8°,Transmission) </span><br />
<br />
* ''45°-Geometrie'': Beleuchtung unter 45° schließt Glanzeinfluss aus <math>\rightarrow</math> Sensor blickt senkrecht auf Probe<br />
* ''8°-Geometrie'': Beleuchtung diffus über Ulbricht-Kugel <math>\rightarrow</math> Sensor blickt unter 8° auf Probe; Messung mit/ohne Glanz möglich<br />
* ''Transmissionsgeometrie'': Probe wird durchleuchtet<br />
<br />
== Dreibereichsverfahren ==<br />
* die drei Farbwerte werden direkt photometrisch gemessen<br />
* Filter und spektrale Empfindlichkeite der Strahlungsempfänger müssen an die spektrale Bewertungsfunktion angepasst sein<br />
* '''Luther-Bedingung:''' <math> \tau_x(\lambda) = \frac{c_x \cdot x(\lambda)}{s_1(\lambda)}</math><br />
** <math> \tau_x(\lambda) </math> ... Filtertransmission<br />
** <math>s_1(\lambda)</math> ... Sensorempfindlichkeit (hier im ersten Kanal)<br />
** <math>c_x</math> ... Gerätekonstante<br />
** Für den Y und Z Kanal ist die Formel analog<br />
* Der notwendige Filter kann gut durch ein Set von Schmalbandigen Filtern realisiert werden<br />
<br />
== Spektralmaskenverfahren ==<br />
<br />
* spezielles Dreibereichsverfahren<br />
* Lichtzerlegung erfolgt mit einem Prisma<br />
* Das zerlegte Lich beleuchtet eine Maske (Papier, Plaste, Metal .... ne richtige echte Maske)<br />
* Messen der spektralen Verteilung (CCD-Zeile)<br />
* Ähnlich dem Spektralverfahren nur das das spektrum bereits im analogen entsprechend gewichtet wird<br />
<br />
== Metamerie ==<br />
* zwei Farbproben die bei einer bestimmten Beleuchtung gleich aussehen können bei einer anderen Beleuchtung ganz anderst aussehen<br />
* Der Metermarie-Index beschreibt diesen durch Beleuchtungswechsel entstehenden Farbwechsel<br />
* KEIN Maß für die Farbkonstantheit sondern für den Unterschied von zwei Proben<br />
* Berechnung erfolgt im L*a*b* Raum <br> <math> M_T = \sqrt {(L_{1T}-L_{2T}+L_{2B}-L_{1B})^2 +(a_{1T}-a_{2T}+a_{2B}-a_{1B})^2+(b_{1T}-b_{2T}+b_{2B}-b_{1B})^2 } </math><br />
** T ... Testlicht<br />
** B ... Bezugslicht<br />
** 1,2 ... Probennummern<br />
<br />
= Klassifikation von Messaufgaben (GF 82 - 86) =<br />
<br />
# Messung von objektiven Eigenschaften, die sich in der Veränderung spektraler Charakteristika niederschlagen<br />
#* vordergründig ist Zusammenhang zwischen Veränderungen in den physikalischen Eigenschaften von Interesse (z.B. Waferinspektion)<br />
#* Zusammenhang sollte eindeutig und von hinreichender Empfindlichkeit sein<br />
#* Wahrnehmung unterschiedlicher Farben eher Nebeneffekt<br />
# Überwachung der Stabilität von farblichen Erscheinungen<br />
#* ist bei einer oder mehreren Beleuchtungen zu überwachen<br />
#* absolute Farbmessung nicht nötig; "Anlernen" auf Farben genügt<br />
#* Abstände im Farbempfinden müssen sich in gleicher Weise in Veränderungen der Sensorsignale wiederspiegeln<br />
# absolute Farbmessung<br />
#* d.h. Ermittlung der korrekten Farbvalenz unter beliebigen Messbedingungen<br />
#* Spektralwertkurven müssen realisiert werden<br />
# Messung des spektralen Remissions- und/oder Transmissionsverhaltens von Materialien<br />
#* ausschließlich spektrale Messverfahren<br />
#* Messung der Strahlungsfunktion und der remittierten Leistungsdichte<br />
#* Berechnung der Farbvalenz bei beliebiger Beleuchtung und des Metamerie-Index<br />
<br />
'''steigende Ansprüche mit steigender Nummerierung'''<br />
<br />
= Einfache Farbkalibrierung (GF 16 - 41) =<br />
* Farben sollen möglichst exakt Wiedergegeben werden<br />
<br />
== Ausgleich von Beleuchtungseinflüssen ==<br />
* Körperfarben werden durch ihre Remmision bestimmt <math> \beta </math><br />
* Bei unterschiedlicher Beleuchtung sehen Farben unterschiedlich aus aber das Auge kann sich an die Beleuchtung adaptieren<br />
** Funktioniert bei Fotos aber nicht -> Beleuchtungsausgleich ist wichtig<br />
** Bei Farbvergleich noch viel mehr<br />
** Wird realisiert durch Weißabgleich (auf integraler Farbebene nicht möglich )<br />
* Direkte Vermessung der spektralen Eingenschaften der Kamera nicht möglich (Da Werte in Kamera bereits verrechnet werden um z.B. die negativen Anteile der Spektralkurven zu realisieren)<br />
** sehr Aufwendig (Kamera auseinanderbasteln um an die echten werte zu kommen + das durchgehen durch das Spektrum in kleinen Schritten)<br />
* Daher Verwendung von Testfarben<br />
** Führt auf Lösung eines linearen Gleichungssystem<br />
** Für menschliches empfinden -> Optimieren im CIELAB-Raum<br />
* Vorsicht bei nichtlinearen Funktionen zur Farbkalibrierung -> Kann bei zu wenig Testfarben zu total falschen Ergebnissen führen !!<br />
<br />
= Color Management (F CM 1 - 20) =<br />
<br />
= Kameras (GF_Ka 1 - 12) =<br />
<br />
'''Einsatzfelder:'''<br />
* ortsaufgelöste Messung von Farbe<br />
* Aufnahme und Wiedergabe von True-Color Bildern<br />
* Aufnahme farbiger oder mehrkanaliger Bilder für die Verarbeitung/Analyse (Qualitätssicherung)<br />
* Photogrammetrische Anwendungen (Lösung des Korrespondenzproblems)<br />
* Radiometrische Anwendungen (Messen im Spektralbereich)<br />
<br />
'''Dreibereichsmessung:'''<br />
* setzt die Trennung von drei sich überlappenden Spektralbereichen voraus, die dann wellenlängenabhängig zu bewerten und zu integrieren sind<br />
<br />
== Dreichip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* optische Kanaltrennung und Bewertung<br />
* beste Bildqualität, da hohe Auflösung in allen drei Kanälen<br />
* keinen örtlichen Versatz der Pixel in den drei Farbauszügen<br />
* Filter einfacher und präziser zu realisieren<br />
* befinden sich z.B. als dichroitische Spiegel auf den Strahteilerprismen<br />
<br />
<span style="color:#ee0000;"> \\ Hot-Mirror-, Cold-Mirror-Korrektur????</span><br />
<br />
== Einchip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: doppelte Anzahl grüner Pixel wegen Schärfe, MTF des Auges </span><br />
<br />
* örtliche Kanaltrennung und Bewertung<br />
* Streifen- oder Mosaikfilterstrukturen auf den einzelnen Pixeln zur örtlichen Signaltrennung<br />
* 3 oder 4 unterschiedliche spektrale Auszuüge zur Erzeugung der Farbinformation<br />
* Matrix selbst kann Interline- oder Frame-Transfer-Matrix sein<br />
* kostengünstiger und kleiner als Dreichip-Kameras<br />
* Probleme:<br />
** Farbvalenzen aus örtlich versetzten Auszügen (z.B. Farbsäume an Kanten)<br />
** nicht korrigierbare Fehler aus Nichtlinearitäten und Dunkelsignalen bei der Bildung von Mischsignalen<br />
<br />
'''generelle Anforderungen an die Signalverarbeitung:'''<br />
<br />
* primäre Kamerasignale stellen keine farbmetrische Schnittstelle zur Verfügung, d.h. alle Bewertungsfunktionen sind nicht-negativ (Spektralwertkurven fordern aber negative Wichtungen)<br />
* je nach realisierten Filtern und Genauigkeitsansprüchen <math>\rightarrow</math> lineare Matrizierung (meist Kameraintern) oder komplexere Approximation<br />
* bei hohen Genauigkeitsansprüchen <math>\rightarrow</math> Umgehung der Kamerainternen Matrizierung, weil Verstärkungsfaktoren, Toleranzen, Temperaturdrift, Langzeitstabilität etc. nicht bekannt sind<br />
* insgesamt geringe Nichtlinearitäten der CCD's können in den Ansteuerbereichen der einzelnen Kanäle zu wesentlichen Fehlern führen:<br />
** Farbvalenz ändert sich kontinuirlich mit der Shutterzeit<br />
** Pixelweise DSNU- (Dunkelsignalungleichförmigkeit) und PRNU- (Hellsignalungleichförmigkeit) Korrektur vor Erzeugung der Farbvalenz erforderlich, da sich Festmusterrauschen nicht nur auf Intensität sondern auch auf Farbart auswirkt<br />
** Dunkelsignal verdoppelt sich alle 7K, Gleichanteil wird aber geklemmt<br />
** Lichtquellentyp und Langzeitverhalten wirken sich nicht nur Intensität sondern auch auf Farbtemperatur aus<br />
<br />
'''4 spektrale Bereiche:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* vorteilhaft zur Erzeugung von Farbdifferenzsignalen für die TV-Kompatibilität<br />
* im Field-Integration-Mode werden Mischsignale gebildet, die die erforderliche Signalkorrektur für hohe Ansprüche behindern<br />
* Nichtlinearität der Ausgangsverstärker wirkt sich auf Korrektur der primären Mischsignale aus<br />
<br />
== Sequentielle Einchip-Kamera ==<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* zeitliche Kanaltrennung und Bewertung<br />
* relativ genaue Approximation der Spektralwertkurven möglich<br />
<br />
== Elektrisch steuerbare Filter ==<br />
<br />
* über die Wellenlängenabhängigkeit der Eindringtiefe der Photonen und die Steuerbarkeit der Tiefe der Potentialmulden der sensoren lassen sich steuerbare spektrale Empfindlichkeiten erzeugen<br />
<br />
= Verarbeitung von Farbbildern (1 - 31) =<br />
<br />
= Referenzfreie Farbadaption auf Basis des 3D-Histogramms (HuS 32 - 39 ) =<br />
<br />
= Histogrammbasiertes Farbmatching(1 - 15) =<br />
<br />
= Störunterdrückung (SU 1 - 16) =<br />
<br />
= Kantendetektion in Farbbildern (1 - 21) =<br />
<br />
= Farbpixelklassifikation (Farbpixelklassifikation 1 - 21) =<br />
<br />
= Clusterverfahren (Farbpixelklassifikation 19 - 45) =<br />
<br />
= Segmentierung (Seg 1 - 8) =<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Grundlagen_der_Farbbildverarbeitung&diff=6978Grundlagen der Farbbildverarbeitung2009-03-14T09:07:36Z<p>DarkGhost: /* Farbmessung (GF 1 - 11) */</p>
<hr />
<div>Link zum [http://www.zbs-ilmenau.de/intern/vip-toolkit/index.php Vip toolkit]<br />
= Einführung (GF_a 8 - 47) =<br />
<br />
== Geschichtliches zur Farbe ==<br />
<br />
=== Newton ===<br />
<br />
* 1672: New Theory about Light and Colours<br />
** Sonnenlicht = Mischung einzelner Farben<br />
** Spektralfarben sind objektive Eigenschaft des Lichtes<br />
<br />
[...]<br />
<br />
=== Goethe ===<br />
<br />
[...]<br />
<br />
== Begriff der Farbe ==<br />
<br />
* '''Farbe im engeren Sinn, stellt eine spezielle menschliche Sinneswahrnehmung dar'''<br />
* <math>\Phi_i = \int_{\Delta \lambda_i} \varphi_{\lambda} (\lambda) d \lambda</math><br />
* Leistungsdichte <math>\phi (\lambda)</math> stellt dagegen den Farbreiz dar, der die Farbempfindung hervorruft<br />
* Vektoren <math>\underline \Phi</math> sind je nach Dimension mehr oder minder genaue Approximationen des Farbreizes<br />
<br />
* Orientierung am menschlichen visuellen System und die Betrachtung psychologischer und physiologischer Grundlagen sind von Interesse:<br />
** zur richtigen Bewertung der Schwierigkeiten und Herausforderungen bei der Schaffung technischer Lösungen<br />
** zur Anpassung technischer Lösungen der Bildwiedergabe an das visuelle System<br />
** zur Nutzung optimaler Naturprinzipien für technische Lösungen<br />
** weil technische Systeme im allgemeinen auf dem inneren Modell des Menschen von der Welt beruhen und dieses Modell in hohem Maße durch den visuellen Kanal des Menschen beeinflusst ist<br />
** weil optoelektronische Sensoren, Bildverarbeitung und Bildanalyse wichtige Schnittstellen zwischen Mensch und Maschine darstellen<br />
**weil viele Objekteigenschaften durch visuelle Eindrücke beschrieben werden<br />
<br />
* menschliches Auge kann ca. 100 Graustufen / ca. 300 000 Farben unterscheiden<br />
<br />
* Drei grundsätzliche Anwendungen von Farbinformation:<br />
** Pseudokolorierung<br />
** Falschfarbendarstellung<br />
** Echtfarbdarstellung (True Color) <math>\rarr</math> hier Schwerpunkt<br />
<br />
== Farbtäuschung ==<br />
<br />
* Zuordnung zwischen Physik und Wahrnehmung nur eindeutig wenn bunte Dinge isoliert betrachtet werden<br />
* Werden bunte Objekte in bunte Umgebungen eingebettet/bewegt, dann können abweichende Farbwahrnehmungen auftreten, so genannte Farbtäuschungen<br />
* es existieren unterschiedliche Arten solcher Täuschungen:<br />
** ''Farbinduktion oder simultaner Farbkontrast'' (Farbe wird durch ihre Umgebung modifiziert)<br />
** ''Farbkonflikt'' (es konkurrieren verschiedene Sehinformationen miteinander)<br />
** ''Subjektive Farben'' (es werden bunte Farbtöne wahrgenommen, die nicht vorliegen)<br />
<br />
'''Simultaner Farbkontrast:'''<br />
* erstmals 1839 beschrieben<br />
* wo der Effekt entsteht (Auge, Cortex) ist unklar<br />
<br />
'''Farbinduktion:'''<br />
* bei kleinteiligen, sich wiederholenden Strukturen erfolgt Angleichung<br />
* kann zur Rauschunterdrückung oder zur Unterdrückung von Feintexturen zugunsten der Erkennung größerer Objekte wichtig sein<br />
<br />
'''Farbkonflikt:'''<br />
* Formen und Strukturen konkurrieren mit Farben ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf White'sche Illusion])<br />
<br />
'''Subjektive Farben:'''<br />
* durch Bewegung ist es möglich Farben zu erzeugen die ursprünglich nicht vorhanden waren ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf Drehwurm in Farbe])<br />
<br />
== Farbwahrnehmung beim Menschen ==<br />
<br />
[...]<br />
<br />
=== Rezeptive Wahrnehmung ===<br />
* 1807 stellte Young die Hypothese auf das Farbsehen auf drei Arten von Sinneszellen beruht (rout,grün,blau)<br />
* erst 1964 konnten dies bewiesen werden, durch die Messung der Absorptionsspektren<br />
*[[Datei:Pdt-kurven.svg]]<br />
<br />
=== Postrezeptive Wahrnehmung ===<br />
* Mit dem 3 Farbenmodell konnten einige psychologische Erscheinungen nicht erklärt werden<br />
** Es werden 4 Farben als besonderst "rein" empfunden (Rto, Geln,Grün, Blau)<br />
** Unbunte Farben werden werden als das fehlen von Farben wahrgenommen<br />
** Schwarz schein gleichberechtigt zu Weiß<br />
** keine wahrgenommene Farbe erscheint zugleich rötlich und grün<br />
* das führte zur Gegenfarbentheorie die anfangs nur Psychologisch begründet war 1958 aber physiologisch Nachgewiesen werden konnte<br />
** Rot - Grün<br />
** Gelb - Blau<br />
** Schwarz - Weiß<br />
* → CIELab-Farbraum<br />
<br />
=== Kortikale Kodierung ===<br />
* Weder die 3 Farbentheorie noch die Gegenfarbentheorie beschreiben die bewusste Wahrnehmung des Menschen<br />
* Deshalb erweitertes Modell<br />
** Farbton / Buntton beschreibt die als besonderst rein empfundenen Spektralfarben<br />
** Sättigung beschreibt wie stark eine Farbe verblasst ist<br />
** Helligkeit beschreibt, wie hell oder dunkel eine Farbe ist<br />
* Wo/Wie genau die neuronale Verarbeitung erfolgt, ist noch nicht sicher belegt<br />
<br />
== Die Ordnung in der Welt der Farben ==<br />
* Newton kannte die Wellenlänge noch nicht → er ordnete die Farben nach dem Regenbogen<br />
* Goethe verwendete das Gegenfarbenmodell<br />
* Munsell schlug 1905 ein Farbordnungssystem vor bei dem alle Abstände zwischen den Farben Empfindungsmäßig gleich sind<br />
** führt zu einem geometrisch nicht regelmäßigen Körper<br />
<br />
== Das Modell der Farbe ==<br />
* '''Definition'''<br />
** Farbe ist diejenige Gesichtsempfindung eines dem Auge strukturlos erscheinenden Teils eines Gesichtsfeldes durch die sich diser Teil bei einäugiger Betrachtung mit unbewegtem Auge von einem gleichzeitig gesehenen ebenfalls strukturlos angrenzendem Bezirk allein unterscheidet (unbunte Farben: Schwarz, Weiß und Graustufen, bunte Farben: Helligkeit; Buntheit setzt sich aus Buntton und Farbsättigung zusammen)<br />
** Farbe ist durch Helligkeit, Buntton, Sättigung eindeutig bestimmt → 3D Modell<br />
*** drei linear unabhängige Größen<br />
*** Additive Mischung zur Reproduktion von Farbe (aus Rot, Grün, Blau)<br />
*** drei linearunabhängige Größen spannen immer einen Raum auf → Rot,Grün und Blau werden die Achsen dieses Raumes<br />
<br />
=== Farbvalenz ===<br />
* Mit unserem Modell läßt sich jede Farbe als linearkombination unserer drei Basisvektoren aufschreiben<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
** <math> \vec F</math> ... Farbvalenz<br />
** <math> \vec r, \vec g, \vec b </math> ... die drei Basisvektoren die den Raum aufspannen (Rot, Grün und Blau)<br />
** <math> R,G,B, |\vec F| </math> ... die Farbwerte<br />
** <math> \vec r \cdot R, \vec g \cdot G, \vec b \cdot B </math> ... die drei Primärvalenzen<br />
* Ermittelt werden die Farbwerte mit Hilfe der Vergleichsmethode<br />
** Eine Person vergleicht ein Target mit einer Farbe die aus den drei Primärvalenzen gemischt wird<br />
** wenn die Empfindung der beiden Farben gleich ist, dann notieren wir die Werte<br />
* Innere Farbmischung<br />
** das Target wird mit weißen Licht beleuchtet und wir drehen nur an dem Farbmischgerät<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
* Äußere Farbmischung<br />
** Wir beleuchten das Target mit farbigen Lichte<br />
**<math> \vec F+ B \cdot \vec b = R \cdot \vec r + G \cdot \vec g \rightarrow \vec F = R \cdot \vec r + G \cdot \vec g - B \cdot \vec b</math><br />
<br />
=== Farbreizmetrik ===<br />
* Die Farbreizfunktion <math> \varphi_\lambda</math> beschreibt die spektrale Zusammensetzung der Farbempfindungen<br />
*# Selbstleuchtende Objekte<br />
*#* <math> S_\lambda (\lambda)</math> beschreibt die spektrale Verteilung der Quelle<br />
*#* Wahrnehmung: <math> \varphi_\lambda = S_\lambda</math><br />
*# Auflicht Vorlagen<br />
*#* <math>\beta_\lambda(\lambda)</math> beschreibt den spektralen Remisionsgrad der Vorlage<br />
*#* Wahrnehmung: Licht reflektiert von der Vorlage <math> \varphi_\lambda = S_\lambda \cdot \beta_\lambda</math><br />
*# Durchlichtvorlagen<br />
*#* <math>\tau_\lambda(\lambda)</math> spektraler Transmissionsgrad der Vorlage<br />
*#* Wahrnehmung von Licht welches die Vorlage durchdrungen hat <math>\varphi_\lambda= S_\lambda \cdot \tau_\lambda</math><br />
* Damit haben folgende Faktoren Auswirkung auf die Wahrgenommene Farbe<br />
*# Die Beleuchtung des Objektes (Spektrale Zusammensetzung des Lichtes der Lampe)<br />
*# Das Remmisionsverhalten der beleuchteten Oberfläche<br />
*# Die wellenlängenabhängige Empfindlichkeit der drei Zapfen des Auges<br />
* Es besteht die Möglichkeit die pdt Kurven direkt zur Beschreibung des Farbempfindens zu nutzen<br />
* Die Farbwerte könnte man dann wie folgt ermitteln: <math> \left(\begin{matrix}P\\D\\T\end{matrix}\right)=k\int_{380\mathit{nm}}^{780\mathit{nm}}\varphi (\lambda )\cdot \left(\begin{matrix}p(\lambda )\\d(\lambda )\\t(\lambda )\end{matrix}\right)d\lambda </math><br />
* Für die technische Darstellung von Farbe werden allerdings R,G,B werte benötigt<br />
* Die dafür notwendigen Spektralwertkurven können mit Hilfe der Vergleichsmethode ermittelt werden<br />
* Man erhält damit folgende Kurven<br />
[[Datei:SpektralwertfunktionenRGB.jpg]]<br />
* Mit der gleichen Formel wie bei der pdt Kurve lassen sich nun die R,G,B Werte rechnerisch ermitteln<br />
<br />
== Farbanalyse, Zusammenhang mit der Farbwidergabe ==<br />
* Das Kammera - Monitor System soll die Farbe exakt wiedergeben<br />
* Der Monitor verwendet EBU Phosphore für die Farbdarstellung<br />
** haben selbst Spektralwert kurven => keine Monochromatischen Lichter mehr<br />
* Die notwendigen spektralwertkurven die die Kamera realisieren muss um die Bilder auf dem Monitor exakt darzustellen lassen sich mit Hilfe der pdt Kurven herleiten (Über forderung der Gleicheit der Farben)<br />
* Sie besitzen stark negative Anteile => Auch die Filter der Kamera müssten negative Transsmissionsgrade besitzen<br />
** technisch ist das nicht möglich<br />
* es bleibt also nur die Möglichkeit die notwendigen Parameter zur Ansteuerung des Monitors aus positive one-peak Kurven zu berechnen<br />
<br />
== Subtraktive Farbmischung ==<br />
* Die Subtraktive Farbmischung lässt sich auf die Multiplikation der Transmissionsgrade zurückführen (ein Filter lässt 50% rotes licht durch, wenn man zwei dieser Filter hintereinander legt, dann geht nur noch 25% rotes Licht durch die Anordnung (0.5*0.5 = 0.25) )<br />
* wenn <math> \tau_0 </math> die Transmission eines Filters für die normierte Dicke 1 und die normiert Dichte 1 ist dann kann man<br />
** mit dem Lambertschen Absorbtionsgesetzt die Absortption von dickern/düneren Material berechnen <br> <math> \tau = [ \tau_0]^w </math><br />
*** w ... Dicke des Materials im Verhältnis zum norm Material<br />
** mit dem Beerschen Gesetz die Transmission von Meterial mit anderer Dichte berechnen <br><math> \tau = [ \tau_0]^c </math><br />
*** c... Das Verhältnis der neuen zur alten Dichte<br />
** kann man auch kombinieren zu (Lambert-Beersches Gesetz)<br />
** <math> \tau = [ \tau_0]^{c \cdot w} </math><br />
* Da sich die Transmission Multiplikativ zusammensetzt wird auch gerne mit dem logarithmus der Transmission gerechnet (optische Dichte)<br />
**<math> D = - lg \tau = lg \frac{1}{\tau}</math><br />
** Damit vereinfacht sich das Lambert-Beersche gesetz zu: <math> D = c \cdot w \cdot D_0</math><br />
* selbstverständlich sind die Transmission <math>\tau</math> und die optische Dichte D von der Wellenlänge abhänig ... zur Übersichtlichkeit wurde das in den Formeln nur weggelassen<br />
* Bei einem Papierbild kommt zu dem Filter noch die Reflexion an der Farboberfläche und an der Papieroberfläche<br />
** Beachte das Licht was an der erste Schicht wegreflektiert wird kann icht tiefer eindringen. Nur noch <math> (1-\beta)*S </math> dringt an Licht durch den ersten Filter!<br />
*** <math> \beta </math> ... Remmisionsgrad der ersten Farbe<br />
*** <math> S </math> ... Spektrale Verteilung der Lichtquelle<br />
<br />
= Farbmetrische Schnittstellen - Farbräume (GF a 49 - 55) =<br />
<br />
<pre><br />
Unterschiedliche bildgebende Systeme<br />
z.B. Farbkameras<br />
Farbscanner<br />
Spezialkameras<br />
</pre><br />
'''Widerspruch''' <math>\updownarrow</math> Farbmetrische Schnittstelle<br />
<pre><br />
Unterschiedliche Bildwiedergabesysteme<br />
"True-Color-Darstellung"<br />
- unterschiedliche Monitore, Beamer, Drucker etc.<br />
</pre><br />
<br />
== Leuchtdichte (Luminanz) ==<br />
<br />
* Luminanz Y ist die Strahlungsleistung, bewertet mit der spektralen Empfindlichkeitsfunktion des Auges für das Hellempfinden<br />
* Y ist Leistungsproportional, wenn Lichtzusammensetzung (Leistungsdichte <math>\Theta (\lambda))</math> konstant bleibt<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* Leuchtdichte berechnet sich nach dem ''Abneyschen Gesetz'':<br />
: <math> Y = L = k \cdot \underline L^T \cdot \underline F </math><br />
:* <math>\underline L^T - </math> Leuchtdichtebeiwert: gibt an wie groß der Beitrag jedes Farbwertes der Farbvalenz zum Helleindruck ist, abhängig vom gewählten Farbwiedergabesystem<br />
* Leuchtdichte L <math>\ne</math> Intensität I<br />
: <math> I = \frac 1 3 (R+G+B)</math><br />
<br />
* die perzeptuelle Antwort unseres Auges auf die Leuchtdichte wird Helligkeit (Lightness) genannt<br />
: <math><br />
L^{\star} = \begin{cases}<br />
116 \cdot \sqrt [3] {\frac Y {Y_n}} -16, & \text{wenn } \frac Y {Y_n} > 0{,}008856\\<br />
903{,}3 \cdot {\frac Y {Y_n}}, & \text{wenn } \frac Y {Y_n} \le 0{,}008856<br />
\end{cases}<br />
</math><br />
<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: Eine Quelle die nur 18% der Luminanz einer Referenz hat, erscheint uns immer noch halb so hell wie die Referenz </span><br />
<br />
== Gammakorrektur und Luma ==<br />
* '''Gammakorrektur:'''<br />
** Aufgrund der Ansteuerung von CRT Monitoren und der verwendeten Phosphore ergibt sich ungefähr eine quadratische Abhängigkeit der Luminanz vom Videosignal<br />
** Die Luminaz der drein einzelnen Farbkanäle muss den gleichen Verlauf aufweisen. Sie dürfen sich nur in ihren Maximalwerten unterscheiden!<br />
*** Sonst ist es nicht möglich die Helligkeit zu ändern und dabei die Farbe konstant zu halten<br />
** Die Gammakorrektur sorgt dafür das die Farbwiedergabe auf dem Monitor linear verläuft und nicht quadratisch<br />
*** Notwendig damit wir die gleich Wahrnehmung erzielen können als währe das Kamera-Monitor System nicht vorhanden<br />
<br />
*'''Luma:'''<br />
** Luma ist die gewichtete Summe der drei Gammakorregierten Farbwerte R',G',B'<br />
** Damit ist Luma nicht gleich Luminanz<br />
<br />
*'''Brightness'''<br />
** Brightness ist ein Begriff der beschreibt wie stark eine Fläche Licht emmitiert oder sie hell sie erscheint<br />
** Besitzt kein festes Maß und wird daher sehr frei verwendet -> HSL<br />
<br />
== Farbsysteme, Farbräume, reduzierte Farbräume ==<br />
* Die Intensität einer Farbe ist <math> I = \frac{R + G +B}{3} </math><br />
* Wählt man die Intensität konstant mit <math>I=\frac{1}{3}</math> so ergibt sich eine Ebene die den RGB-Farb Würfel Diagonal schneidet und durch die R,G,B Eckpunkte geht<br />
* Jede Farbkoordinate kann auf diese Ebene projeziert werden -> Ermöglicht die Nutzung dieser Ebene als einfache Farbtafel<br />
** Diese Ebene kann dann noch auf die 0RG- Fläche des RGB Würfels projeziert werden ohne das die Ordnung der Farben gestört werden würde -> Der Farbton einer Farbe lässt sich allein durch r und g beschreiben<br />
* in die rg-Ebene können nun alle in RGB - darstellbaren Farben und alles existierenden Farben eingetragen werden<br />
** Danach erkennt man das sich technisch mit dem RGB-System nur ein kleiner Teil der exisiterenden Farben realisieren lässt<br />
<br />
= Das Normvalenz- oder XYZ-System (GF a 76 - 86) =<br />
* Alle Farbwerte sollen durch positive Farbwerte darstellbar sein<br />
** Für Farbmessung von Interesse<br />
** Das XYZ- Dreieck muss den spektralen Kurvenzug voll umschließen<br />
* Eine weitere Forderung ist das die Leuchtdichte als unabhängige Komponete auftreten soll<br />
* Die Fläche des Dreiecks soll so klein wie möglich sein<br />
* Die dadurch berechnbaren Normalvalenzen sind physikalisch nicht erzeugbar -> Die Spektralwertkurven für das System müssen berechnet werden<br />
** Die Berechneten Spektralwertkurven sind stets nichtnegativ -> immer positive Transmissionsgrade und Sensorempfindlichkeiten<br />
[[Bild:NORMXYZ1.JPG]]<br />
* Mit dem XYZ-System kann man nun Farbdreiecke vergleichen und Bewerten<br />
** Abstände, Fehler und Systemeigenschaften sollten aber in einem empfindungsmäßig gleichabständigen Farbraum bewertet werden (u'v'w' und CIELab)<br />
* '''Optimalfarbkörper'''<br />
** Beschreibt die Grenze aller darstellbaren Körperfarben<br />
** Zur Erstellung schneidet man rechteckförmige Stückchen aus dem Spektrum von Idealweißem Licht aus<br />
<br />
== Das UVW-System ==<br />
* Informationsgehalt der Farbe für den Menschen hängt davon ab welche Farbunterschiede er wahrnehmen kann<br />
* Vor allem ist das interessant wenn Bildverarbeitungsprobleme auf der menschlichen Wahrnehmung formuliert sind<br />
* xy-Farbtafel hat starke Unterschiede zwischen örtlichen Abstenden und empfindungsmäßigen Abständen -> ungeeignet<br />
* erste Lösung<br />
** lineare Transformation<br />
** W' -> Helligkeit<br />
** U' -> Rot-Grün Bundheit<br />
** V' -> Gelb-Blau Bundheit<br />
** Ergebnis<br />
*** Wesentlich besseres Darstellung der Empfindung (Faktor 10 gegenüber dem XYZ-System)<br />
* verbesserte Lösung<br />
** verwenden einer nicht linearen Abbildung (Auge wird mit berücksichtigt)<br />
<br />
== L*a*b* oder CIELAB-Raum ==<br />
* Gegenfarbmodell<br />
* empfindungsmäßig gleichabständiger Raum<br />
* Grundsätzlich zur Angabe von Farbabweichungen verwendet<br />
** Geeignet zur Bewertung von Druckern, Monitoren und Abweichungen von Nachfärbungen<br />
* als Farbdifferenzmaß wird der euklidische Abstand benutzt (<1 nicht mehr Wahrnehmbar)<br />
<br />
== L*u*v* oder CIELUV ==<br />
* für additive Mischung vorgesehen<br />
* wie der CIELAB- Raum ein empfindungsmäßiger gleichabständiger Raum<br />
<br />
== YCbCr - Crominanzwertsystem ==<br />
* Entwickelt damit Farbfernsehen und S/W-Fernsehen Parallel betrieben werden konnten<br />
* Crominanzwerte<br />
** sind von Leuchtdichte befreite Werte<br />
** verschwinden für alle unbunten Farben<br />
** Cr= R-Y, Cg = G-Y, Cb = B-Y<br />
** Das System aus CrCbCg und Y ist überbestimmt => Es reicht die Übetragung von Cr , Cb und Y<br />
* Da das Auge auf Helligkeitsunterschiede empfindlicher reagiert als auf Farbunterschiede können die Crominanzwerte mit geringerer Auflösung übertragen werden<br />
<br />
== ΘSY - System ==<br />
* Der Bunttonwinkel Θ berechnet sich aus dem Verhältnis der Crominanzwerte Cb und Cr<br />
* Die Sättigung S ist der Betrag des Vektors CrCb<br />
<br />
== HSI - Farbraum ==<br />
* Intensität: <math> I= \frac{R+G+B}{3} </math><br />
* Sättigung: <math> S = 1 - 3 \cdot min (r,g,b) </math><br />
* Hue: <math> H= \left\{ \begin{matrix}\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B\le G \\ 2\pi -\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B>G \end{matrix}\right . </math><br />
* Raum ist nicht gleichmäßig gefüllt<br />
* bei kleinen Intensitäten I in Buntton und Sättigung Instabil<br />
* Es kann bei Farbmanipulationen dazu führen das es keine Entsprechungen im RGB gibt<br />
** Lösungen:<br />
*** Dachförmige Begrenzung des HSI Raums -> sehr Aufwendig<br />
*** Normieren der Intensitäten -> Bild kann ins dunkle verschoben werden<br />
*** Maximalwert setzen -> Falsche Farbwerte (werden ins unbunte verschoben)<br />
*** proportionales skalieren bis Farbe im RGB-Würfel liegt<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
<br />
== HSL - Farbraum ==<br />
* Gern für Computergrafik verwendet<br />
* einfache Beziehungen<br />
* Die Verwendeten Biegriffe H,S,L entsprechen nicht der Bedeutung in der Farblehre und Form des Raumes<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
* Buntton ist extrem instabil bei kleinen Sättigungen<br />
* Form des Raumes ist unpraktisch<br />
<br />
= Farbmessung (GF 1 - 11) =<br />
<br />
* Farbmessung = Ermittlung der drei zu einer Farbvalenz gehörigen Farbmaßzahlen<br />
* 3 Messmethoden: <br />
** Vergleichsmethode oder Gleichheitsverfahren<br />
** Spektralverfahren<br />
** Dreibereichsverfahren<br />
<br />
== Gleichheitsverfahren ==<br />
<br />
* Vergleiche:<br />
** Vorlage mit additivem Gemisch<br />
** Vorlage mit Farbmusterkarten (DIN-Karten)<br />
* unverzichtbar bei physiologischen Untersuchungen<br />
* aufwendig und bei kleinen Probandengruppen ungenau<br />
* d.h. für technische Messungen ohne Bedeutung<br />
<br />
'''Messbedingungen nach DIN:'''<br />
* helladaptiertes und blendfreies Sehen<br />
* unbunter Messraum<br />
* neutrale Gesichtsfeldumgebung mit gleicher oder etwas kleinerer Leuchtdichte als im Messfeld<br />
* gut ausgeruhtes und neutral gestimmtes Auge<br />
* farbnormalsichtiger Beobachter<br />
<br />
== Spektralverfahren ==<br />
<br />
* zu messende Farbvalenz = Summe spektraler Farbvalenzen<br />
* greift auf gemessene Normspektralwertkurven zurück<br />
<br />
# '''spektrale Messung zur Ermittlung der Farbreizfunktion <math>\varphi (\lambda) </math>'''<br />
#* Selbststrahler: direkte Messung der Strahlungsfunktion <math>\rightarrow \varphi (\lambda)= S (\lambda)</math><br />
#* remittierende Vorlage: Remissionsfunktion der Vorlage messen, d.h. Strahlungsfunktion S ist vorher zu bestimmen und aus <math>\varphi (\lambda)</math> heraus zu rechnen <math>\rightarrow \varphi (\lambda)= \beta (\lambda) \cdot S (\lambda)</math><br />
# '''farbvalenzmetrische Auswertung'''<br />
#* wenn <math>\beta (\lambda)</math> ermittelt wurde, kann jede beliebige (tabellierte) Lichtquelle <math>S^{\ast} (\lambda)</math>eingesetzt werden<br />
#: <math><br />
\begin{bmatrix}<br />
X\\Y\\Z<br />
\end{bmatrix}<br />
= k \cdot<br />
\begin{bmatrix}<br />
\int \bar{x} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{y} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{z} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda<br />
\end{bmatrix}<br />
</math><br />
#* Normierungskonstante k:<br />
#** Selbststrahler: nur Farbwertanteile gefragt, d.h. k ist beliebig<br />
#** Körperfarben: Y für mattweißen Körper = 100, d.h. <math>k=\frac{100}{\int {S(\lambda) \cdot \bar{y}(\lambda) d \lambda}}</math><br />
<br />
'''Messgeometrien:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bildergalerie (45°,8°,Transmission) </span><br />
<br />
* ''45°-Geometrie'': Beleuchtung unter 45° schließt Glanzeinfluss aus <math>\rightarrow</math> Sensor blickt senkrecht auf Probe<br />
* ''8°-Geometrie'': Beleuchtung diffus über Ulbricht-Kugel <math>\rightarrow</math> Sensor blickt unter 8° auf Probe; Messung mit/ohne Glanz möglich<br />
* ''Transmissionsgeometrie'': Probe wird durchleuchtet<br />
<br />
== Dreibereichsverfahren ==<br />
* die drei Farbwerte werden direkt photometrisch gemessen<br />
* Filter und spektrale Empfindlichkeite der Strahlungsempfänger müssen an die spektrale Bewertungsfunktion angepasst sein<br />
* '''Luther-Bedingung:''' <math> \tau_x(\lambda) = \frac{c_x \cdot x(\lambda)}{s_1(\lambda)}</math><br />
** <math> \tau_x(\lambda) </math> ... Filtertransmission<br />
** <math>s_1(\lambda)</math> ... Sensorempfindlichkeit (hier im ersten Kanal)<br />
** <math>c_x</math> ... Gerätekonstante<br />
** Für den Y und Z Kanal ist die Formel analog<br />
* Der notwendige Filter kann gut durch ein Set von Schmalbandigen Filtern realisiert werden<br />
<br />
== Spektralmaskenverfahren ==<br />
<br />
* spezielles Dreibereichsverfahren<br />
* Lichtzerlegung erfolgt mit einem Prisma<br />
* Das zerlegte Lich beleuchtet eine Maske (Papier, Plaste, Metal .... ne richtige echte Maske)<br />
* Messen der spektralen Verteilung (CCD-Zeile)<br />
* Ähnlich dem Spektralverfahren nur das das spektrum bereits im analogen entsprechend gewichtet wird<br />
<br />
== Metamerie ==<br />
* zwei Farbproben die bei einer bestimmten Beleuchtung gleich aussehen können bei einer anderen Beleuchtung ganz anderst aussehen<br />
* Der Metermarie-Index beschreibt diesen durch Beleuchtungswechsel entstehenden Farbwechsel<br />
* KEIN Maß für die Farbkonstantheit sondern für den Unterschied von zwei Proben<br />
* Berechnung erfolgt im L*a*b* Raum <br> <math> M_T = \sqrt {(L_{1T}-L_{2T}+L_{2B}-L_{1B})^2 +(a_{1T}-a_{2T}+a_{2B}-a_{1B})^2+(b_{1T}-b_{2T}+b_{2B}-b_{1B})^2 } </math><br />
** T ... Testlicht<br />
** B ... Bezugslicht<br />
** 1,2 ... Probennummern<br />
<br />
= Klassifikation von Messaufgaben (GF 82 - 86) =<br />
<br />
# Messung von objektiven Eigenschaften, die sich in der Veränderung spektraler Charakteristika niederschlagen<br />
#* vordergründig ist Zusammenhang zwischen Veränderungen in den physikalischen Eigenschaften von Interesse (z.B. Waferinspektion)<br />
#* Zusammenhang sollte eindeutig und von hinreichender Empfindlichkeit sein<br />
#* Wahrnehmung unterschiedlicher Farben eher Nebeneffekt<br />
# Überwachung der Stabilität von farblichen Erscheinungen<br />
#* ist bei einer oder mehreren Beleuchtungen zu überwachen<br />
#* absolute Farbmessung nicht nötig; "Anlernen" auf Farben genügt<br />
#* Abstände im Farbempfinden müssen sich in gleicher Weise in Veränderungen der Sensorsignale wiederspiegeln<br />
# absolute Farbmessung<br />
#* d.h. Ermittlung der korrekten Farbvalenz unter beliebigen Messbedingungen<br />
#* Spektralwertkurven müssen realisiert werden<br />
# Messung des spektralen Remissions- und/oder Transmissionsverhaltens von Materialien<br />
#* ausschließlich spektrale Messverfahren<br />
#* Messung der Strahlungsfunktion und der remittierten Leistungsdichte<br />
#* Berechnung der Farbvalenz bei beliebiger Beleuchtung und des Metamerie-Index<br />
<br />
'''steigende Ansprüche mit steigender Nummerierung'''<br />
<br />
= Einfache Farbkalibrierung (GF 16 - 41) =<br />
<br />
= Color Management (F CM 1 - 20) =<br />
<br />
= Kameras (GF_Ka 1 - 12) =<br />
<br />
'''Einsatzfelder:'''<br />
* ortsaufgelöste Messung von Farbe<br />
* Aufnahme und Wiedergabe von True-Color Bildern<br />
* Aufnahme farbiger oder mehrkanaliger Bilder für die Verarbeitung/Analyse (Qualitätssicherung)<br />
* Photogrammetrische Anwendungen (Lösung des Korrespondenzproblems)<br />
* Radiometrische Anwendungen (Messen im Spektralbereich)<br />
<br />
'''Dreibereichsmessung:'''<br />
* setzt die Trennung von drei sich überlappenden Spektralbereichen voraus, die dann wellenlängenabhängig zu bewerten und zu integrieren sind<br />
<br />
== Dreichip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* optische Kanaltrennung und Bewertung<br />
* beste Bildqualität, da hohe Auflösung in allen drei Kanälen<br />
* keinen örtlichen Versatz der Pixel in den drei Farbauszügen<br />
* Filter einfacher und präziser zu realisieren<br />
* befinden sich z.B. als dichroitische Spiegel auf den Strahteilerprismen<br />
<br />
<span style="color:#ee0000;"> \\ Hot-Mirror-, Cold-Mirror-Korrektur????</span><br />
<br />
== Einchip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: doppelte Anzahl grüner Pixel wegen Schärfe, MTF des Auges </span><br />
<br />
* örtliche Kanaltrennung und Bewertung<br />
* Streifen- oder Mosaikfilterstrukturen auf den einzelnen Pixeln zur örtlichen Signaltrennung<br />
* 3 oder 4 unterschiedliche spektrale Auszuüge zur Erzeugung der Farbinformation<br />
* Matrix selbst kann Interline- oder Frame-Transfer-Matrix sein<br />
* kostengünstiger und kleiner als Dreichip-Kameras<br />
* Probleme:<br />
** Farbvalenzen aus örtlich versetzten Auszügen (z.B. Farbsäume an Kanten)<br />
** nicht korrigierbare Fehler aus Nichtlinearitäten und Dunkelsignalen bei der Bildung von Mischsignalen<br />
<br />
'''generelle Anforderungen an die Signalverarbeitung:'''<br />
<br />
* primäre Kamerasignale stellen keine farbmetrische Schnittstelle zur Verfügung, d.h. alle Bewertungsfunktionen sind nicht-negativ (Spektralwertkurven fordern aber negative Wichtungen)<br />
* je nach realisierten Filtern und Genauigkeitsansprüchen <math>\rightarrow</math> lineare Matrizierung (meist Kameraintern) oder komplexere Approximation<br />
* bei hohen Genauigkeitsansprüchen <math>\rightarrow</math> Umgehung der Kamerainternen Matrizierung, weil Verstärkungsfaktoren, Toleranzen, Temperaturdrift, Langzeitstabilität etc. nicht bekannt sind<br />
* insgesamt geringe Nichtlinearitäten der CCD's können in den Ansteuerbereichen der einzelnen Kanäle zu wesentlichen Fehlern führen:<br />
** Farbvalenz ändert sich kontinuirlich mit der Shutterzeit<br />
** Pixelweise DSNU- (Dunkelsignalungleichförmigkeit) und PRNU- (Hellsignalungleichförmigkeit) Korrektur vor Erzeugung der Farbvalenz erforderlich, da sich Festmusterrauschen nicht nur auf Intensität sondern auch auf Farbart auswirkt<br />
** Dunkelsignal verdoppelt sich alle 7K, Gleichanteil wird aber geklemmt<br />
** Lichtquellentyp und Langzeitverhalten wirken sich nicht nur Intensität sondern auch auf Farbtemperatur aus<br />
<br />
'''4 spektrale Bereiche:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* vorteilhaft zur Erzeugung von Farbdifferenzsignalen für die TV-Kompatibilität<br />
* im Field-Integration-Mode werden Mischsignale gebildet, die die erforderliche Signalkorrektur für hohe Ansprüche behindern<br />
* Nichtlinearität der Ausgangsverstärker wirkt sich auf Korrektur der primären Mischsignale aus<br />
<br />
== Sequentielle Einchip-Kamera ==<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* zeitliche Kanaltrennung und Bewertung<br />
* relativ genaue Approximation der Spektralwertkurven möglich<br />
<br />
== Elektrisch steuerbare Filter ==<br />
<br />
* über die Wellenlängenabhängigkeit der Eindringtiefe der Photonen und die Steuerbarkeit der Tiefe der Potentialmulden der sensoren lassen sich steuerbare spektrale Empfindlichkeiten erzeugen<br />
<br />
= Verarbeitung von Farbbildern (1 - 31) =<br />
<br />
= Referenzfreie Farbadaption auf Basis des 3D-Histogramms (HuS 32 - 39 ) =<br />
<br />
= Histogrammbasiertes Farbmatching(1 - 15) =<br />
<br />
= Störunterdrückung (SU 1 - 16) =<br />
<br />
= Kantendetektion in Farbbildern (1 - 21) =<br />
<br />
= Farbpixelklassifikation (Farbpixelklassifikation 1 - 21) =<br />
<br />
= Clusterverfahren (Farbpixelklassifikation 19 - 45) =<br />
<br />
= Segmentierung (Seg 1 - 8) =<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Grundlagen_der_Farbbildverarbeitung&diff=6977Grundlagen der Farbbildverarbeitung2009-03-13T15:13:22Z<p>DarkGhost: /* Das Normvalenz- oder XYZ-System (GF a 76 - 86) */</p>
<hr />
<div>Link zum [http://www.zbs-ilmenau.de/intern/vip-toolkit/index.php Vip toolkit]<br />
= Einführung (GF_a 8 - 47) =<br />
<br />
== Geschichtliches zur Farbe ==<br />
<br />
=== Newton ===<br />
<br />
* 1672: New Theory about Light and Colours<br />
** Sonnenlicht = Mischung einzelner Farben<br />
** Spektralfarben sind objektive Eigenschaft des Lichtes<br />
<br />
[...]<br />
<br />
=== Goethe ===<br />
<br />
[...]<br />
<br />
== Begriff der Farbe ==<br />
<br />
* '''Farbe im engeren Sinn, stellt eine spezielle menschliche Sinneswahrnehmung dar'''<br />
* <math>\Phi_i = \int_{\Delta \lambda_i} \varphi_{\lambda} (\lambda) d \lambda</math><br />
* Leistungsdichte <math>\phi (\lambda)</math> stellt dagegen den Farbreiz dar, der die Farbempfindung hervorruft<br />
* Vektoren <math>\underline \Phi</math> sind je nach Dimension mehr oder minder genaue Approximationen des Farbreizes<br />
<br />
* Orientierung am menschlichen visuellen System und die Betrachtung psychologischer und physiologischer Grundlagen sind von Interesse:<br />
** zur richtigen Bewertung der Schwierigkeiten und Herausforderungen bei der Schaffung technischer Lösungen<br />
** zur Anpassung technischer Lösungen der Bildwiedergabe an das visuelle System<br />
** zur Nutzung optimaler Naturprinzipien für technische Lösungen<br />
** weil technische Systeme im allgemeinen auf dem inneren Modell des Menschen von der Welt beruhen und dieses Modell in hohem Maße durch den visuellen Kanal des Menschen beeinflusst ist<br />
** weil optoelektronische Sensoren, Bildverarbeitung und Bildanalyse wichtige Schnittstellen zwischen Mensch und Maschine darstellen<br />
**weil viele Objekteigenschaften durch visuelle Eindrücke beschrieben werden<br />
<br />
* menschliches Auge kann ca. 100 Graustufen / ca. 300 000 Farben unterscheiden<br />
<br />
* Drei grundsätzliche Anwendungen von Farbinformation:<br />
** Pseudokolorierung<br />
** Falschfarbendarstellung<br />
** Echtfarbdarstellung (True Color) <math>\rarr</math> hier Schwerpunkt<br />
<br />
== Farbtäuschung ==<br />
<br />
* Zuordnung zwischen Physik und Wahrnehmung nur eindeutig wenn bunte Dinge isoliert betrachtet werden<br />
* Werden bunte Objekte in bunte Umgebungen eingebettet/bewegt, dann können abweichende Farbwahrnehmungen auftreten, so genannte Farbtäuschungen<br />
* es existieren unterschiedliche Arten solcher Täuschungen:<br />
** ''Farbinduktion oder simultaner Farbkontrast'' (Farbe wird durch ihre Umgebung modifiziert)<br />
** ''Farbkonflikt'' (es konkurrieren verschiedene Sehinformationen miteinander)<br />
** ''Subjektive Farben'' (es werden bunte Farbtöne wahrgenommen, die nicht vorliegen)<br />
<br />
'''Simultaner Farbkontrast:'''<br />
* erstmals 1839 beschrieben<br />
* wo der Effekt entsteht (Auge, Cortex) ist unklar<br />
<br />
'''Farbinduktion:'''<br />
* bei kleinteiligen, sich wiederholenden Strukturen erfolgt Angleichung<br />
* kann zur Rauschunterdrückung oder zur Unterdrückung von Feintexturen zugunsten der Erkennung größerer Objekte wichtig sein<br />
<br />
'''Farbkonflikt:'''<br />
* Formen und Strukturen konkurrieren mit Farben ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf White'sche Illusion])<br />
<br />
'''Subjektive Farben:'''<br />
* durch Bewegung ist es möglich Farben zu erzeugen die ursprünglich nicht vorhanden waren ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf Drehwurm in Farbe])<br />
<br />
== Farbwahrnehmung beim Menschen ==<br />
<br />
[...]<br />
<br />
=== Rezeptive Wahrnehmung ===<br />
* 1807 stellte Young die Hypothese auf das Farbsehen auf drei Arten von Sinneszellen beruht (rout,grün,blau)<br />
* erst 1964 konnten dies bewiesen werden, durch die Messung der Absorptionsspektren<br />
*[[Datei:Pdt-kurven.svg]]<br />
<br />
=== Postrezeptive Wahrnehmung ===<br />
* Mit dem 3 Farbenmodell konnten einige psychologische Erscheinungen nicht erklärt werden<br />
** Es werden 4 Farben als besonderst "rein" empfunden (Rto, Geln,Grün, Blau)<br />
** Unbunte Farben werden werden als das fehlen von Farben wahrgenommen<br />
** Schwarz schein gleichberechtigt zu Weiß<br />
** keine wahrgenommene Farbe erscheint zugleich rötlich und grün<br />
* das führte zur Gegenfarbentheorie die anfangs nur Psychologisch begründet war 1958 aber physiologisch Nachgewiesen werden konnte<br />
** Rot - Grün<br />
** Gelb - Blau<br />
** Schwarz - Weiß<br />
* → CIELab-Farbraum<br />
<br />
=== Kortikale Kodierung ===<br />
* Weder die 3 Farbentheorie noch die Gegenfarbentheorie beschreiben die bewusste Wahrnehmung des Menschen<br />
* Deshalb erweitertes Modell<br />
** Farbton / Buntton beschreibt die als besonderst rein empfundenen Spektralfarben<br />
** Sättigung beschreibt wie stark eine Farbe verblasst ist<br />
** Helligkeit beschreibt, wie hell oder dunkel eine Farbe ist<br />
* Wo/Wie genau die neuronale Verarbeitung erfolgt, ist noch nicht sicher belegt<br />
<br />
== Die Ordnung in der Welt der Farben ==<br />
* Newton kannte die Wellenlänge noch nicht → er ordnete die Farben nach dem Regenbogen<br />
* Goethe verwendete das Gegenfarbenmodell<br />
* Munsell schlug 1905 ein Farbordnungssystem vor bei dem alle Abstände zwischen den Farben Empfindungsmäßig gleich sind<br />
** führt zu einem geometrisch nicht regelmäßigen Körper<br />
<br />
== Das Modell der Farbe ==<br />
* '''Definition'''<br />
** Farbe ist diejenige Gesichtsempfindung eines dem Auge strukturlos erscheinenden Teils eines Gesichtsfeldes durch die sich diser Teil bei einäugiger Betrachtung mit unbewegtem Auge von einem gleichzeitig gesehenen ebenfalls strukturlos angrenzendem Bezirk allein unterscheidet (unbunte Farben: Schwarz, Weiß und Graustufen, bunte Farben: Helligkeit; Buntheit setzt sich aus Buntton und Farbsättigung zusammen)<br />
** Farbe ist durch Helligkeit, Buntton, Sättigung eindeutig bestimmt → 3D Modell<br />
*** drei linear unabhängige Größen<br />
*** Additive Mischung zur Reproduktion von Farbe (aus Rot, Grün, Blau)<br />
*** drei linearunabhängige Größen spannen immer einen Raum auf → Rot,Grün und Blau werden die Achsen dieses Raumes<br />
<br />
=== Farbvalenz ===<br />
* Mit unserem Modell läßt sich jede Farbe als linearkombination unserer drei Basisvektoren aufschreiben<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
** <math> \vec F</math> ... Farbvalenz<br />
** <math> \vec r, \vec g, \vec b </math> ... die drei Basisvektoren die den Raum aufspannen (Rot, Grün und Blau)<br />
** <math> R,G,B, |\vec F| </math> ... die Farbwerte<br />
** <math> \vec r \cdot R, \vec g \cdot G, \vec b \cdot B </math> ... die drei Primärvalenzen<br />
* Ermittelt werden die Farbwerte mit Hilfe der Vergleichsmethode<br />
** Eine Person vergleicht ein Target mit einer Farbe die aus den drei Primärvalenzen gemischt wird<br />
** wenn die Empfindung der beiden Farben gleich ist, dann notieren wir die Werte<br />
* Innere Farbmischung<br />
** das Target wird mit weißen Licht beleuchtet und wir drehen nur an dem Farbmischgerät<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
* Äußere Farbmischung<br />
** Wir beleuchten das Target mit farbigen Lichte<br />
**<math> \vec F+ B \cdot \vec b = R \cdot \vec r + G \cdot \vec g \rightarrow \vec F = R \cdot \vec r + G \cdot \vec g - B \cdot \vec b</math><br />
<br />
=== Farbreizmetrik ===<br />
* Die Farbreizfunktion <math> \varphi_\lambda</math> beschreibt die spektrale Zusammensetzung der Farbempfindungen<br />
*# Selbstleuchtende Objekte<br />
*#* <math> S_\lambda (\lambda)</math> beschreibt die spektrale Verteilung der Quelle<br />
*#* Wahrnehmung: <math> \varphi_\lambda = S_\lambda</math><br />
*# Auflicht Vorlagen<br />
*#* <math>\beta_\lambda(\lambda)</math> beschreibt den spektralen Remisionsgrad der Vorlage<br />
*#* Wahrnehmung: Licht reflektiert von der Vorlage <math> \varphi_\lambda = S_\lambda \cdot \beta_\lambda</math><br />
*# Durchlichtvorlagen<br />
*#* <math>\tau_\lambda(\lambda)</math> spektraler Transmissionsgrad der Vorlage<br />
*#* Wahrnehmung von Licht welches die Vorlage durchdrungen hat <math>\varphi_\lambda= S_\lambda \cdot \tau_\lambda</math><br />
* Damit haben folgende Faktoren Auswirkung auf die Wahrgenommene Farbe<br />
*# Die Beleuchtung des Objektes (Spektrale Zusammensetzung des Lichtes der Lampe)<br />
*# Das Remmisionsverhalten der beleuchteten Oberfläche<br />
*# Die wellenlängenabhängige Empfindlichkeit der drei Zapfen des Auges<br />
* Es besteht die Möglichkeit die pdt Kurven direkt zur Beschreibung des Farbempfindens zu nutzen<br />
* Die Farbwerte könnte man dann wie folgt ermitteln: <math> \left(\begin{matrix}P\\D\\T\end{matrix}\right)=k\int_{380\mathit{nm}}^{780\mathit{nm}}\varphi (\lambda )\cdot \left(\begin{matrix}p(\lambda )\\d(\lambda )\\t(\lambda )\end{matrix}\right)d\lambda </math><br />
* Für die technische Darstellung von Farbe werden allerdings R,G,B werte benötigt<br />
* Die dafür notwendigen Spektralwertkurven können mit Hilfe der Vergleichsmethode ermittelt werden<br />
* Man erhält damit folgende Kurven<br />
[[Datei:SpektralwertfunktionenRGB.jpg]]<br />
* Mit der gleichen Formel wie bei der pdt Kurve lassen sich nun die R,G,B Werte rechnerisch ermitteln<br />
<br />
== Farbanalyse, Zusammenhang mit der Farbwidergabe ==<br />
* Das Kammera - Monitor System soll die Farbe exakt wiedergeben<br />
* Der Monitor verwendet EBU Phosphore für die Farbdarstellung<br />
** haben selbst Spektralwert kurven => keine Monochromatischen Lichter mehr<br />
* Die notwendigen spektralwertkurven die die Kamera realisieren muss um die Bilder auf dem Monitor exakt darzustellen lassen sich mit Hilfe der pdt Kurven herleiten (Über forderung der Gleicheit der Farben)<br />
* Sie besitzen stark negative Anteile => Auch die Filter der Kamera müssten negative Transsmissionsgrade besitzen<br />
** technisch ist das nicht möglich<br />
* es bleibt also nur die Möglichkeit die notwendigen Parameter zur Ansteuerung des Monitors aus positive one-peak Kurven zu berechnen<br />
<br />
== Subtraktive Farbmischung ==<br />
* Die Subtraktive Farbmischung lässt sich auf die Multiplikation der Transmissionsgrade zurückführen (ein Filter lässt 50% rotes licht durch, wenn man zwei dieser Filter hintereinander legt, dann geht nur noch 25% rotes Licht durch die Anordnung (0.5*0.5 = 0.25) )<br />
* wenn <math> \tau_0 </math> die Transmission eines Filters für die normierte Dicke 1 und die normiert Dichte 1 ist dann kann man<br />
** mit dem Lambertschen Absorbtionsgesetzt die Absortption von dickern/düneren Material berechnen <br> <math> \tau = [ \tau_0]^w </math><br />
*** w ... Dicke des Materials im Verhältnis zum norm Material<br />
** mit dem Beerschen Gesetz die Transmission von Meterial mit anderer Dichte berechnen <br><math> \tau = [ \tau_0]^c </math><br />
*** c... Das Verhältnis der neuen zur alten Dichte<br />
** kann man auch kombinieren zu (Lambert-Beersches Gesetz)<br />
** <math> \tau = [ \tau_0]^{c \cdot w} </math><br />
* Da sich die Transmission Multiplikativ zusammensetzt wird auch gerne mit dem logarithmus der Transmission gerechnet (optische Dichte)<br />
**<math> D = - lg \tau = lg \frac{1}{\tau}</math><br />
** Damit vereinfacht sich das Lambert-Beersche gesetz zu: <math> D = c \cdot w \cdot D_0</math><br />
* selbstverständlich sind die Transmission <math>\tau</math> und die optische Dichte D von der Wellenlänge abhänig ... zur Übersichtlichkeit wurde das in den Formeln nur weggelassen<br />
* Bei einem Papierbild kommt zu dem Filter noch die Reflexion an der Farboberfläche und an der Papieroberfläche<br />
** Beachte das Licht was an der erste Schicht wegreflektiert wird kann icht tiefer eindringen. Nur noch <math> (1-\beta)*S </math> dringt an Licht durch den ersten Filter!<br />
*** <math> \beta </math> ... Remmisionsgrad der ersten Farbe<br />
*** <math> S </math> ... Spektrale Verteilung der Lichtquelle<br />
<br />
= Farbmetrische Schnittstellen - Farbräume (GF a 49 - 55) =<br />
<br />
<pre><br />
Unterschiedliche bildgebende Systeme<br />
z.B. Farbkameras<br />
Farbscanner<br />
Spezialkameras<br />
</pre><br />
'''Widerspruch''' <math>\updownarrow</math> Farbmetrische Schnittstelle<br />
<pre><br />
Unterschiedliche Bildwiedergabesysteme<br />
"True-Color-Darstellung"<br />
- unterschiedliche Monitore, Beamer, Drucker etc.<br />
</pre><br />
<br />
== Leuchtdichte (Luminanz) ==<br />
<br />
* Luminanz Y ist die Strahlungsleistung, bewertet mit der spektralen Empfindlichkeitsfunktion des Auges für das Hellempfinden<br />
* Y ist Leistungsproportional, wenn Lichtzusammensetzung (Leistungsdichte <math>\Theta (\lambda))</math> konstant bleibt<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* Leuchtdichte berechnet sich nach dem ''Abneyschen Gesetz'':<br />
: <math> Y = L = k \cdot \underline L^T \cdot \underline F </math><br />
:* <math>\underline L^T - </math> Leuchtdichtebeiwert: gibt an wie groß der Beitrag jedes Farbwertes der Farbvalenz zum Helleindruck ist, abhängig vom gewählten Farbwiedergabesystem<br />
* Leuchtdichte L <math>\ne</math> Intensität I<br />
: <math> I = \frac 1 3 (R+G+B)</math><br />
<br />
* die perzeptuelle Antwort unseres Auges auf die Leuchtdichte wird Helligkeit (Lightness) genannt<br />
: <math><br />
L^{\star} = \begin{cases}<br />
116 \cdot \sqrt [3] {\frac Y {Y_n}} -16, & \text{wenn } \frac Y {Y_n} > 0{,}008856\\<br />
903{,}3 \cdot {\frac Y {Y_n}}, & \text{wenn } \frac Y {Y_n} \le 0{,}008856<br />
\end{cases}<br />
</math><br />
<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: Eine Quelle die nur 18% der Luminanz einer Referenz hat, erscheint uns immer noch halb so hell wie die Referenz </span><br />
<br />
== Gammakorrektur und Luma ==<br />
* '''Gammakorrektur:'''<br />
** Aufgrund der Ansteuerung von CRT Monitoren und der verwendeten Phosphore ergibt sich ungefähr eine quadratische Abhängigkeit der Luminanz vom Videosignal<br />
** Die Luminaz der drein einzelnen Farbkanäle muss den gleichen Verlauf aufweisen. Sie dürfen sich nur in ihren Maximalwerten unterscheiden!<br />
*** Sonst ist es nicht möglich die Helligkeit zu ändern und dabei die Farbe konstant zu halten<br />
** Die Gammakorrektur sorgt dafür das die Farbwiedergabe auf dem Monitor linear verläuft und nicht quadratisch<br />
*** Notwendig damit wir die gleich Wahrnehmung erzielen können als währe das Kamera-Monitor System nicht vorhanden<br />
<br />
*'''Luma:'''<br />
** Luma ist die gewichtete Summe der drei Gammakorregierten Farbwerte R',G',B'<br />
** Damit ist Luma nicht gleich Luminanz<br />
<br />
*'''Brightness'''<br />
** Brightness ist ein Begriff der beschreibt wie stark eine Fläche Licht emmitiert oder sie hell sie erscheint<br />
** Besitzt kein festes Maß und wird daher sehr frei verwendet -> HSL<br />
<br />
== Farbsysteme, Farbräume, reduzierte Farbräume ==<br />
* Die Intensität einer Farbe ist <math> I = \frac{R + G +B}{3} </math><br />
* Wählt man die Intensität konstant mit <math>I=\frac{1}{3}</math> so ergibt sich eine Ebene die den RGB-Farb Würfel Diagonal schneidet und durch die R,G,B Eckpunkte geht<br />
* Jede Farbkoordinate kann auf diese Ebene projeziert werden -> Ermöglicht die Nutzung dieser Ebene als einfache Farbtafel<br />
** Diese Ebene kann dann noch auf die 0RG- Fläche des RGB Würfels projeziert werden ohne das die Ordnung der Farben gestört werden würde -> Der Farbton einer Farbe lässt sich allein durch r und g beschreiben<br />
* in die rg-Ebene können nun alle in RGB - darstellbaren Farben und alles existierenden Farben eingetragen werden<br />
** Danach erkennt man das sich technisch mit dem RGB-System nur ein kleiner Teil der exisiterenden Farben realisieren lässt<br />
<br />
= Das Normvalenz- oder XYZ-System (GF a 76 - 86) =<br />
* Alle Farbwerte sollen durch positive Farbwerte darstellbar sein<br />
** Für Farbmessung von Interesse<br />
** Das XYZ- Dreieck muss den spektralen Kurvenzug voll umschließen<br />
* Eine weitere Forderung ist das die Leuchtdichte als unabhängige Komponete auftreten soll<br />
* Die Fläche des Dreiecks soll so klein wie möglich sein<br />
* Die dadurch berechnbaren Normalvalenzen sind physikalisch nicht erzeugbar -> Die Spektralwertkurven für das System müssen berechnet werden<br />
** Die Berechneten Spektralwertkurven sind stets nichtnegativ -> immer positive Transmissionsgrade und Sensorempfindlichkeiten<br />
[[Bild:NORMXYZ1.JPG]]<br />
* Mit dem XYZ-System kann man nun Farbdreiecke vergleichen und Bewerten<br />
** Abstände, Fehler und Systemeigenschaften sollten aber in einem empfindungsmäßig gleichabständigen Farbraum bewertet werden (u'v'w' und CIELab)<br />
* '''Optimalfarbkörper'''<br />
** Beschreibt die Grenze aller darstellbaren Körperfarben<br />
** Zur Erstellung schneidet man rechteckförmige Stückchen aus dem Spektrum von Idealweißem Licht aus<br />
<br />
== Das UVW-System ==<br />
* Informationsgehalt der Farbe für den Menschen hängt davon ab welche Farbunterschiede er wahrnehmen kann<br />
* Vor allem ist das interessant wenn Bildverarbeitungsprobleme auf der menschlichen Wahrnehmung formuliert sind<br />
* xy-Farbtafel hat starke Unterschiede zwischen örtlichen Abstenden und empfindungsmäßigen Abständen -> ungeeignet<br />
* erste Lösung<br />
** lineare Transformation<br />
** W' -> Helligkeit<br />
** U' -> Rot-Grün Bundheit<br />
** V' -> Gelb-Blau Bundheit<br />
** Ergebnis<br />
*** Wesentlich besseres Darstellung der Empfindung (Faktor 10 gegenüber dem XYZ-System)<br />
* verbesserte Lösung<br />
** verwenden einer nicht linearen Abbildung (Auge wird mit berücksichtigt)<br />
<br />
== L*a*b* oder CIELAB-Raum ==<br />
* Gegenfarbmodell<br />
* empfindungsmäßig gleichabständiger Raum<br />
* Grundsätzlich zur Angabe von Farbabweichungen verwendet<br />
** Geeignet zur Bewertung von Druckern, Monitoren und Abweichungen von Nachfärbungen<br />
* als Farbdifferenzmaß wird der euklidische Abstand benutzt (<1 nicht mehr Wahrnehmbar)<br />
<br />
== L*u*v* oder CIELUV ==<br />
* für additive Mischung vorgesehen<br />
* wie der CIELAB- Raum ein empfindungsmäßiger gleichabständiger Raum<br />
<br />
== YCbCr - Crominanzwertsystem ==<br />
* Entwickelt damit Farbfernsehen und S/W-Fernsehen Parallel betrieben werden konnten<br />
* Crominanzwerte<br />
** sind von Leuchtdichte befreite Werte<br />
** verschwinden für alle unbunten Farben<br />
** Cr= R-Y, Cg = G-Y, Cb = B-Y<br />
** Das System aus CrCbCg und Y ist überbestimmt => Es reicht die Übetragung von Cr , Cb und Y<br />
* Da das Auge auf Helligkeitsunterschiede empfindlicher reagiert als auf Farbunterschiede können die Crominanzwerte mit geringerer Auflösung übertragen werden<br />
<br />
== ΘSY - System ==<br />
* Der Bunttonwinkel Θ berechnet sich aus dem Verhältnis der Crominanzwerte Cb und Cr<br />
* Die Sättigung S ist der Betrag des Vektors CrCb<br />
<br />
== HSI - Farbraum ==<br />
* Intensität: <math> I= \frac{R+G+B}{3} </math><br />
* Sättigung: <math> S = 1 - 3 \cdot min (r,g,b) </math><br />
* Hue: <math> H= \left\{ \begin{matrix}\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B\le G \\ 2\pi -\mathit{arcos}\left[\frac{0.5\cdot \{(R-G)+(R-B)\}}{\sqrt{(R-G)^{2}+(R-B)(G-B)}}\right]&\mathit{falls}B>G \end{matrix}\right . </math><br />
* Raum ist nicht gleichmäßig gefüllt<br />
* bei kleinen Intensitäten I in Buntton und Sättigung Instabil<br />
* Es kann bei Farbmanipulationen dazu führen das es keine Entsprechungen im RGB gibt<br />
** Lösungen:<br />
*** Dachförmige Begrenzung des HSI Raums -> sehr Aufwendig<br />
*** Normieren der Intensitäten -> Bild kann ins dunkle verschoben werden<br />
*** Maximalwert setzen -> Falsche Farbwerte (werden ins unbunte verschoben)<br />
*** proportionales skalieren bis Farbe im RGB-Würfel liegt<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
<br />
== HSL - Farbraum ==<br />
* Gern für Computergrafik verwendet<br />
* einfache Beziehungen<br />
* Die Verwendeten Biegriffe H,S,L entsprechen nicht der Bedeutung in der Farblehre und Form des Raumes<br />
* Farbunterschiede sind nicht empfindungsmäßig gleichabständig<br />
* Buntton ist extrem instabil bei kleinen Sättigungen<br />
* Form des Raumes ist unpraktisch<br />
<br />
= Farbmessung (GF 1 - 11) =<br />
<br />
* Farbmessung = Ermittlung der drei zu einer Farbvalenz gehörigen Farbmaßzahlen<br />
* 3 Messmethoden: <br />
** Vergleichsmethode oder Gleichheitsverfahren<br />
** Spektralverfahren<br />
** Dreibereichsverfahren<br />
<br />
== Gleichheitsverfahren ==<br />
<br />
* Vergleiche:<br />
** Vorlage mit additivem Gemisch<br />
** Vorlage mit Farbmusterkarten (DIN-Karten)<br />
* unverzichtbar bei physiologischen Untersuchungen<br />
* aufwendig und bei kleinen Probandengruppen ungenau<br />
* d.h. für technische Messungen ohne Bedeutung<br />
<br />
'''Messbedingungen nach DIN:'''<br />
* helladaptiertes und blendfreies Sehen<br />
* unbunter Messraum<br />
* neutrale Gesichtsfeldumgebung mit gleicher oder etwas kleinerer Leuchtdichte als im Messfeld<br />
* gut ausgeruhtes und neutral gestimmtes Auge<br />
* farbnormalsichtiger Beobachter<br />
<br />
== Spektralverfahren ==<br />
<br />
* zu messende Farbvalenz = Summe spektraler Farbvalenzen<br />
* greift auf gemessene Normspektralwertkurven zurück<br />
<br />
# '''spektrale Messung zur Ermittlung der Farbreizfunktion <math>\varphi (\lambda) </math>'''<br />
#* Selbststrahler: direkte Messung der Strahlungsfunktion <math>\rightarrow \varphi (\lambda)= S (\lambda)</math><br />
#* remittierende Vorlage: Remissionsfunktion der Vorlage messen, d.h. Strahlungsfunktion S ist vorher zu bestimmen und aus <math>\varphi (\lambda)</math> heraus zu rechnen <math>\rightarrow \varphi (\lambda)= \beta (\lambda) \cdot S (\lambda)</math><br />
# '''farbvalenzmetrische Auswertung'''<br />
#* wenn <math>\beta (\lambda)</math> ermittelt wurde, kann jede beliebige (tabellierte) Lichtquelle <math>S^{\ast} (\lambda)</math>eingesetzt werden<br />
#: <math><br />
\begin{bmatrix}<br />
X\\Y\\Z<br />
\end{bmatrix}<br />
= k \cdot<br />
\begin{bmatrix}<br />
\int \bar{x} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{y} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{z} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda<br />
\end{bmatrix}<br />
</math><br />
#* Normierungskonstante k:<br />
#** Selbststrahler: nur Farbwertanteile gefragt, d.h. k ist beliebig<br />
#** Körperfarben: Y für mattweißen Körper = 100, d.h. <math>k=\frac{100}{\int {S(\lambda) \cdot \bar{y}(\lambda) d \lambda}}</math><br />
<br />
'''Messgeometrien:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bildergalerie (45°,8°,Transmission) </span><br />
<br />
* ''45°-Geometrie'': Beleuchtung unter 45° schließt Glanzeinfluss aus <math>\rightarrow</math> Sensor blickt senkrecht auf Probe<br />
* ''8°-Geometrie'': Beleuchtung diffus über Ulbricht-Kugel <math>\rightarrow</math> Sensor blickt unter 8° auf Probe; Messung mit/ohne Glanz möglich<br />
* ''Transmissionsgeometrie'': Probe wird durchleuchtet<br />
<br />
== Dreibereichsverfahren ==<br />
[...]<br />
== Spektralmaskenverfahren ==<br />
[...]<br />
<br />
= Klassifikation von Messaufgaben (GF 82 - 86) =<br />
<br />
# Messung von objektiven Eigenschaften, die sich in der Veränderung spektraler Charakteristika niederschlagen<br />
#* vordergründig ist Zusammenhang zwischen Veränderungen in den physikalischen Eigenschaften von Interesse (z.B. Waferinspektion)<br />
#* Zusammenhang sollte eindeutig und von hinreichender Empfindlichkeit sein<br />
#* Wahrnehmung unterschiedlicher Farben eher Nebeneffekt<br />
# Überwachung der Stabilität von farblichen Erscheinungen<br />
#* ist bei einer oder mehreren Beleuchtungen zu überwachen<br />
#* absolute Farbmessung nicht nötig; "Anlernen" auf Farben genügt<br />
#* Abstände im Farbempfinden müssen sich in gleicher Weise in Veränderungen der Sensorsignale wiederspiegeln<br />
# absolute Farbmessung<br />
#* d.h. Ermittlung der korrekten Farbvalenz unter beliebigen Messbedingungen<br />
#* Spektralwertkurven müssen realisiert werden<br />
# Messung des spektralen Remissions- und/oder Transmissionsverhaltens von Materialien<br />
#* ausschließlich spektrale Messverfahren<br />
#* Messung der Strahlungsfunktion und der remittierten Leistungsdichte<br />
#* Berechnung der Farbvalenz bei beliebiger Beleuchtung und des Metamerie-Index<br />
<br />
'''steigende Ansprüche mit steigender Nummerierung'''<br />
<br />
= Einfache Farbkalibrierung (GF 16 - 41) =<br />
<br />
= Color Management (F CM 1 - 20) =<br />
<br />
= Kameras (GF_Ka 1 - 12) =<br />
<br />
'''Einsatzfelder:'''<br />
* ortsaufgelöste Messung von Farbe<br />
* Aufnahme und Wiedergabe von True-Color Bildern<br />
* Aufnahme farbiger oder mehrkanaliger Bilder für die Verarbeitung/Analyse (Qualitätssicherung)<br />
* Photogrammetrische Anwendungen (Lösung des Korrespondenzproblems)<br />
* Radiometrische Anwendungen (Messen im Spektralbereich)<br />
<br />
'''Dreibereichsmessung:'''<br />
* setzt die Trennung von drei sich überlappenden Spektralbereichen voraus, die dann wellenlängenabhängig zu bewerten und zu integrieren sind<br />
<br />
== Dreichip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* optische Kanaltrennung und Bewertung<br />
* beste Bildqualität, da hohe Auflösung in allen drei Kanälen<br />
* keinen örtlichen Versatz der Pixel in den drei Farbauszügen<br />
* Filter einfacher und präziser zu realisieren<br />
* befinden sich z.B. als dichroitische Spiegel auf den Strahteilerprismen<br />
<br />
<span style="color:#ee0000;"> \\ Hot-Mirror-, Cold-Mirror-Korrektur????</span><br />
<br />
== Einchip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: doppelte Anzahl grüner Pixel wegen Schärfe, MTF des Auges </span><br />
<br />
* örtliche Kanaltrennung und Bewertung<br />
* Streifen- oder Mosaikfilterstrukturen auf den einzelnen Pixeln zur örtlichen Signaltrennung<br />
* 3 oder 4 unterschiedliche spektrale Auszuüge zur Erzeugung der Farbinformation<br />
* Matrix selbst kann Interline- oder Frame-Transfer-Matrix sein<br />
* kostengünstiger und kleiner als Dreichip-Kameras<br />
* Probleme:<br />
** Farbvalenzen aus örtlich versetzten Auszügen (z.B. Farbsäume an Kanten)<br />
** nicht korrigierbare Fehler aus Nichtlinearitäten und Dunkelsignalen bei der Bildung von Mischsignalen<br />
<br />
'''generelle Anforderungen an die Signalverarbeitung:'''<br />
<br />
* primäre Kamerasignale stellen keine farbmetrische Schnittstelle zur Verfügung, d.h. alle Bewertungsfunktionen sind nicht-negativ (Spektralwertkurven fordern aber negative Wichtungen)<br />
* je nach realisierten Filtern und Genauigkeitsansprüchen <math>\rightarrow</math> lineare Matrizierung (meist Kameraintern) oder komplexere Approximation<br />
* bei hohen Genauigkeitsansprüchen <math>\rightarrow</math> Umgehung der Kamerainternen Matrizierung, weil Verstärkungsfaktoren, Toleranzen, Temperaturdrift, Langzeitstabilität etc. nicht bekannt sind<br />
* insgesamt geringe Nichtlinearitäten der CCD's können in den Ansteuerbereichen der einzelnen Kanäle zu wesentlichen Fehlern führen:<br />
** Farbvalenz ändert sich kontinuirlich mit der Shutterzeit<br />
** Pixelweise DSNU- (Dunkelsignalungleichförmigkeit) und PRNU- (Hellsignalungleichförmigkeit) Korrektur vor Erzeugung der Farbvalenz erforderlich, da sich Festmusterrauschen nicht nur auf Intensität sondern auch auf Farbart auswirkt<br />
** Dunkelsignal verdoppelt sich alle 7K, Gleichanteil wird aber geklemmt<br />
** Lichtquellentyp und Langzeitverhalten wirken sich nicht nur Intensität sondern auch auf Farbtemperatur aus<br />
<br />
'''4 spektrale Bereiche:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* vorteilhaft zur Erzeugung von Farbdifferenzsignalen für die TV-Kompatibilität<br />
* im Field-Integration-Mode werden Mischsignale gebildet, die die erforderliche Signalkorrektur für hohe Ansprüche behindern<br />
* Nichtlinearität der Ausgangsverstärker wirkt sich auf Korrektur der primären Mischsignale aus<br />
<br />
== Sequentielle Einchip-Kamera ==<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* zeitliche Kanaltrennung und Bewertung<br />
* relativ genaue Approximation der Spektralwertkurven möglich<br />
<br />
== Elektrisch steuerbare Filter ==<br />
<br />
* über die Wellenlängenabhängigkeit der Eindringtiefe der Photonen und die Steuerbarkeit der Tiefe der Potentialmulden der sensoren lassen sich steuerbare spektrale Empfindlichkeiten erzeugen<br />
<br />
= Verarbeitung von Farbbildern (1 - 31) =<br />
<br />
= Referenzfreie Farbadaption auf Basis des 3D-Histogramms (HuS 32 - 39 ) =<br />
<br />
= Histogrammbasiertes Farbmatching(1 - 15) =<br />
<br />
= Störunterdrückung (SU 1 - 16) =<br />
<br />
= Kantendetektion in Farbbildern (1 - 21) =<br />
<br />
= Farbpixelklassifikation (Farbpixelklassifikation 1 - 21) =<br />
<br />
= Clusterverfahren (Farbpixelklassifikation 19 - 45) =<br />
<br />
= Segmentierung (Seg 1 - 8) =<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Datei:NORMXYZ1.JPG&diff=6976Datei:NORMXYZ1.JPG2009-03-13T12:47:56Z<p>DarkGhost: CIE 1931 Normspektralwertkurven</p>
<hr />
<div>CIE 1931 Normspektralwertkurven</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Grundlagen_der_Farbbildverarbeitung&diff=6975Grundlagen der Farbbildverarbeitung2009-03-13T12:34:23Z<p>DarkGhost: /* Farbsysteme, Farbräume, reduzierte Farbräume */</p>
<hr />
<div>Link zum [http://www.zbs-ilmenau.de/intern/vip-toolkit/index.php Vip toolkit]<br />
= Einführung (GF_a 8 - 47) =<br />
<br />
== Geschichtliches zur Farbe ==<br />
<br />
=== Newton ===<br />
<br />
* 1672: New Theory about Light and Colours<br />
** Sonnenlicht = Mischung einzelner Farben<br />
** Spektralfarben sind objektive Eigenschaft des Lichtes<br />
<br />
[...]<br />
<br />
=== Goethe ===<br />
<br />
[...]<br />
<br />
== Begriff der Farbe ==<br />
<br />
* '''Farbe im engeren Sinn, stellt eine spezielle menschliche Sinneswahrnehmung dar'''<br />
* <math>\Phi_i = \int_{\Delta \lambda_i} \varphi_{\lambda} (\lambda) d \lambda</math><br />
* Leistungsdichte <math>\phi (\lambda)</math> stellt dagegen den Farbreiz dar, der die Farbempfindung hervorruft<br />
* Vektoren <math>\underline \Phi</math> sind je nach Dimension mehr oder minder genaue Approximationen des Farbreizes<br />
<br />
* Orientierung am menschlichen visuellen System und die Betrachtung psychologischer und physiologischer Grundlagen sind von Interesse:<br />
** zur richtigen Bewertung der Schwierigkeiten und Herausforderungen bei der Schaffung technischer Lösungen<br />
** zur Anpassung technischer Lösungen der Bildwiedergabe an das visuelle System<br />
** zur Nutzung optimaler Naturprinzipien für technische Lösungen<br />
** weil technische Systeme im allgemeinen auf dem inneren Modell des Menschen von der Welt beruhen und dieses Modell in hohem Maße durch den visuellen Kanal des Menschen beeinflusst ist<br />
** weil optoelektronische Sensoren, Bildverarbeitung und Bildanalyse wichtige Schnittstellen zwischen Mensch und Maschine darstellen<br />
**weil viele Objekteigenschaften durch visuelle Eindrücke beschrieben werden<br />
<br />
* menschliches Auge kann ca. 100 Graustufen / ca. 300 000 Farben unterscheiden<br />
<br />
* Drei grundsätzliche Anwendungen von Farbinformation:<br />
** Pseudokolorierung<br />
** Falschfarbendarstellung<br />
** Echtfarbdarstellung (True Color) <math>\rarr</math> hier Schwerpunkt<br />
<br />
== Farbtäuschung ==<br />
<br />
* Zuordnung zwischen Physik und Wahrnehmung nur eindeutig wenn bunte Dinge isoliert betrachtet werden<br />
* Werden bunte Objekte in bunte Umgebungen eingebettet/bewegt, dann können abweichende Farbwahrnehmungen auftreten, so genannte Farbtäuschungen<br />
* es existieren unterschiedliche Arten solcher Täuschungen:<br />
** ''Farbinduktion oder simultaner Farbkontrast'' (Farbe wird durch ihre Umgebung modifiziert)<br />
** ''Farbkonflikt'' (es konkurrieren verschiedene Sehinformationen miteinander)<br />
** ''Subjektive Farben'' (es werden bunte Farbtöne wahrgenommen, die nicht vorliegen)<br />
<br />
'''Simultaner Farbkontrast:'''<br />
* erstmals 1839 beschrieben<br />
* wo der Effekt entsteht (Auge, Cortex) ist unklar<br />
<br />
'''Farbinduktion:'''<br />
* bei kleinteiligen, sich wiederholenden Strukturen erfolgt Angleichung<br />
* kann zur Rauschunterdrückung oder zur Unterdrückung von Feintexturen zugunsten der Erkennung größerer Objekte wichtig sein<br />
<br />
'''Farbkonflikt:'''<br />
* Formen und Strukturen konkurrieren mit Farben ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf White'sche Illusion])<br />
<br />
'''Subjektive Farben:'''<br />
* durch Bewegung ist es möglich Farben zu erzeugen die ursprünglich nicht vorhanden waren ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf Drehwurm in Farbe])<br />
<br />
== Farbwahrnehmung beim Menschen ==<br />
<br />
[...]<br />
<br />
=== Rezeptive Wahrnehmung ===<br />
* 1807 stellte Young die Hypothese auf das Farbsehen auf drei Arten von Sinneszellen beruht (rout,grün,blau)<br />
* erst 1964 konnten dies bewiesen werden, durch die Messung der Absorptionsspektren<br />
*[[Datei:Pdt-kurven.svg]]<br />
<br />
=== Postrezeptive Wahrnehmung ===<br />
* Mit dem 3 Farbenmodell konnten einige psychologische Erscheinungen nicht erklärt werden<br />
** Es werden 4 Farben als besonderst "rein" empfunden (Rto, Geln,Grün, Blau)<br />
** Unbunte Farben werden werden als das fehlen von Farben wahrgenommen<br />
** Schwarz schein gleichberechtigt zu Weiß<br />
** keine wahrgenommene Farbe erscheint zugleich rötlich und grün<br />
* das führte zur Gegenfarbentheorie die anfangs nur Psychologisch begründet war 1958 aber physiologisch Nachgewiesen werden konnte<br />
** Rot - Grün<br />
** Gelb - Blau<br />
** Schwarz - Weiß<br />
* → CIELab-Farbraum<br />
<br />
=== Kortikale Kodierung ===<br />
* Weder die 3 Farbentheorie noch die Gegenfarbentheorie beschreiben die bewusste Wahrnehmung des Menschen<br />
* Deshalb erweitertes Modell<br />
** Farbton / Buntton beschreibt die als besonderst rein empfundenen Spektralfarben<br />
** Sättigung beschreibt wie stark eine Farbe verblasst ist<br />
** Helligkeit beschreibt, wie hell oder dunkel eine Farbe ist<br />
* Wo/Wie genau die neuronale Verarbeitung erfolgt, ist noch nicht sicher belegt<br />
<br />
== Die Ordnung in der Welt der Farben ==<br />
* Newton kannte die Wellenlänge noch nicht → er ordnete die Farben nach dem Regenbogen<br />
* Goethe verwendete das Gegenfarbenmodell<br />
* Munsell schlug 1905 ein Farbordnungssystem vor bei dem alle Abstände zwischen den Farben Empfindungsmäßig gleich sind<br />
** führt zu einem geometrisch nicht regelmäßigen Körper<br />
<br />
== Das Modell der Farbe ==<br />
* '''Definition'''<br />
** Farbe ist diejenige Gesichtsempfindung eines dem Auge strukturlos erscheinenden Teils eines Gesichtsfeldes durch die sich diser Teil bei einäugiger Betrachtung mit unbewegtem Auge von einem gleichzeitig gesehenen ebenfalls strukturlos angrenzendem Bezirk allein unterscheidet (unbunte Farben: Schwarz, Weiß und Graustufen, bunte Farben: Helligkeit; Buntheit setzt sich aus Buntton und Farbsättigung zusammen)<br />
** Farbe ist durch Helligkeit, Buntton, Sättigung eindeutig bestimmt → 3D Modell<br />
*** drei linear unabhängige Größen<br />
*** Additive Mischung zur Reproduktion von Farbe (aus Rot, Grün, Blau)<br />
*** drei linearunabhängige Größen spannen immer einen Raum auf → Rot,Grün und Blau werden die Achsen dieses Raumes<br />
<br />
=== Farbvalenz ===<br />
* Mit unserem Modell läßt sich jede Farbe als linearkombination unserer drei Basisvektoren aufschreiben<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
** <math> \vec F</math> ... Farbvalenz<br />
** <math> \vec r, \vec g, \vec b </math> ... die drei Basisvektoren die den Raum aufspannen (Rot, Grün und Blau)<br />
** <math> R,G,B, |\vec F| </math> ... die Farbwerte<br />
** <math> \vec r \cdot R, \vec g \cdot G, \vec b \cdot B </math> ... die drei Primärvalenzen<br />
* Ermittelt werden die Farbwerte mit Hilfe der Vergleichsmethode<br />
** Eine Person vergleicht ein Target mit einer Farbe die aus den drei Primärvalenzen gemischt wird<br />
** wenn die Empfindung der beiden Farben gleich ist, dann notieren wir die Werte<br />
* Innere Farbmischung<br />
** das Target wird mit weißen Licht beleuchtet und wir drehen nur an dem Farbmischgerät<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
* Äußere Farbmischung<br />
** Wir beleuchten das Target mit farbigen Lichte<br />
**<math> \vec F+ B \cdot \vec b = R \cdot \vec r + G \cdot \vec g \rightarrow \vec F = R \cdot \vec r + G \cdot \vec g - B \cdot \vec b</math><br />
<br />
=== Farbreizmetrik ===<br />
* Die Farbreizfunktion <math> \varphi_\lambda</math> beschreibt die spektrale Zusammensetzung der Farbempfindungen<br />
*# Selbstleuchtende Objekte<br />
*#* <math> S_\lambda (\lambda)</math> beschreibt die spektrale Verteilung der Quelle<br />
*#* Wahrnehmung: <math> \varphi_\lambda = S_\lambda</math><br />
*# Auflicht Vorlagen<br />
*#* <math>\beta_\lambda(\lambda)</math> beschreibt den spektralen Remisionsgrad der Vorlage<br />
*#* Wahrnehmung: Licht reflektiert von der Vorlage <math> \varphi_\lambda = S_\lambda \cdot \beta_\lambda</math><br />
*# Durchlichtvorlagen<br />
*#* <math>\tau_\lambda(\lambda)</math> spektraler Transmissionsgrad der Vorlage<br />
*#* Wahrnehmung von Licht welches die Vorlage durchdrungen hat <math>\varphi_\lambda= S_\lambda \cdot \tau_\lambda</math><br />
* Damit haben folgende Faktoren Auswirkung auf die Wahrgenommene Farbe<br />
*# Die Beleuchtung des Objektes (Spektrale Zusammensetzung des Lichtes der Lampe)<br />
*# Das Remmisionsverhalten der beleuchteten Oberfläche<br />
*# Die wellenlängenabhängige Empfindlichkeit der drei Zapfen des Auges<br />
* Es besteht die Möglichkeit die pdt Kurven direkt zur Beschreibung des Farbempfindens zu nutzen<br />
* Die Farbwerte könnte man dann wie folgt ermitteln: <math> \left(\begin{matrix}P\\D\\T\end{matrix}\right)=k\int_{380\mathit{nm}}^{780\mathit{nm}}\varphi (\lambda )\cdot \left(\begin{matrix}p(\lambda )\\d(\lambda )\\t(\lambda )\end{matrix}\right)d\lambda </math><br />
* Für die technische Darstellung von Farbe werden allerdings R,G,B werte benötigt<br />
* Die dafür notwendigen Spektralwertkurven können mit Hilfe der Vergleichsmethode ermittelt werden<br />
* Man erhält damit folgende Kurven<br />
[[Datei:SpektralwertfunktionenRGB.jpg]]<br />
* Mit der gleichen Formel wie bei der pdt Kurve lassen sich nun die R,G,B Werte rechnerisch ermitteln<br />
<br />
== Farbanalyse, Zusammenhang mit der Farbwidergabe ==<br />
* Das Kammera - Monitor System soll die Farbe exakt wiedergeben<br />
* Der Monitor verwendet EBU Phosphore für die Farbdarstellung<br />
** haben selbst Spektralwert kurven => keine Monochromatischen Lichter mehr<br />
* Die notwendigen spektralwertkurven die die Kamera realisieren muss um die Bilder auf dem Monitor exakt darzustellen lassen sich mit Hilfe der pdt Kurven herleiten (Über forderung der Gleicheit der Farben)<br />
* Sie besitzen stark negative Anteile => Auch die Filter der Kamera müssten negative Transsmissionsgrade besitzen<br />
** technisch ist das nicht möglich<br />
* es bleibt also nur die Möglichkeit die notwendigen Parameter zur Ansteuerung des Monitors aus positive one-peak Kurven zu berechnen<br />
<br />
== Subtraktive Farbmischung ==<br />
* Die Subtraktive Farbmischung lässt sich auf die Multiplikation der Transmissionsgrade zurückführen (ein Filter lässt 50% rotes licht durch, wenn man zwei dieser Filter hintereinander legt, dann geht nur noch 25% rotes Licht durch die Anordnung (0.5*0.5 = 0.25) )<br />
* wenn <math> \tau_0 </math> die Transmission eines Filters für die normierte Dicke 1 und die normiert Dichte 1 ist dann kann man<br />
** mit dem Lambertschen Absorbtionsgesetzt die Absortption von dickern/düneren Material berechnen <br> <math> \tau = [ \tau_0]^w </math><br />
*** w ... Dicke des Materials im Verhältnis zum norm Material<br />
** mit dem Beerschen Gesetz die Transmission von Meterial mit anderer Dichte berechnen <br><math> \tau = [ \tau_0]^c </math><br />
*** c... Das Verhältnis der neuen zur alten Dichte<br />
** kann man auch kombinieren zu (Lambert-Beersches Gesetz)<br />
** <math> \tau = [ \tau_0]^{c \cdot w} </math><br />
* Da sich die Transmission Multiplikativ zusammensetzt wird auch gerne mit dem logarithmus der Transmission gerechnet (optische Dichte)<br />
**<math> D = - lg \tau = lg \frac{1}{\tau}</math><br />
** Damit vereinfacht sich das Lambert-Beersche gesetz zu: <math> D = c \cdot w \cdot D_0</math><br />
* selbstverständlich sind die Transmission <math>\tau</math> und die optische Dichte D von der Wellenlänge abhänig ... zur Übersichtlichkeit wurde das in den Formeln nur weggelassen<br />
* Bei einem Papierbild kommt zu dem Filter noch die Reflexion an der Farboberfläche und an der Papieroberfläche<br />
** Beachte das Licht was an der erste Schicht wegreflektiert wird kann icht tiefer eindringen. Nur noch <math> (1-\beta)*S </math> dringt an Licht durch den ersten Filter!<br />
*** <math> \beta </math> ... Remmisionsgrad der ersten Farbe<br />
*** <math> S </math> ... Spektrale Verteilung der Lichtquelle<br />
<br />
= Farbmetrische Schnittstellen - Farbräume (GF a 49 - 55) =<br />
<br />
<pre><br />
Unterschiedliche bildgebende Systeme<br />
z.B. Farbkameras<br />
Farbscanner<br />
Spezialkameras<br />
</pre><br />
'''Widerspruch''' <math>\updownarrow</math> Farbmetrische Schnittstelle<br />
<pre><br />
Unterschiedliche Bildwiedergabesysteme<br />
"True-Color-Darstellung"<br />
- unterschiedliche Monitore, Beamer, Drucker etc.<br />
</pre><br />
<br />
== Leuchtdichte (Luminanz) ==<br />
<br />
* Luminanz Y ist die Strahlungsleistung, bewertet mit der spektralen Empfindlichkeitsfunktion des Auges für das Hellempfinden<br />
* Y ist Leistungsproportional, wenn Lichtzusammensetzung (Leistungsdichte <math>\Theta (\lambda))</math> konstant bleibt<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* Leuchtdichte berechnet sich nach dem ''Abneyschen Gesetz'':<br />
: <math> Y = L = k \cdot \underline L^T \cdot \underline F </math><br />
:* <math>\underline L^T - </math> Leuchtdichtebeiwert: gibt an wie groß der Beitrag jedes Farbwertes der Farbvalenz zum Helleindruck ist, abhängig vom gewählten Farbwiedergabesystem<br />
* Leuchtdichte L <math>\ne</math> Intensität I<br />
: <math> I = \frac 1 3 (R+G+B)</math><br />
<br />
* die perzeptuelle Antwort unseres Auges auf die Leuchtdichte wird Helligkeit (Lightness) genannt<br />
: <math><br />
L^{\star} = \begin{cases}<br />
116 \cdot \sqrt [3] {\frac Y {Y_n}} -16, & \text{wenn } \frac Y {Y_n} > 0{,}008856\\<br />
903{,}3 \cdot {\frac Y {Y_n}}, & \text{wenn } \frac Y {Y_n} \le 0{,}008856<br />
\end{cases}<br />
</math><br />
<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: Eine Quelle die nur 18% der Luminanz einer Referenz hat, erscheint uns immer noch halb so hell wie die Referenz </span><br />
<br />
== Gammakorrektur und Luma ==<br />
* '''Gammakorrektur:'''<br />
** Aufgrund der Ansteuerung von CRT Monitoren und der verwendeten Phosphore ergibt sich ungefähr eine quadratische Abhängigkeit der Luminanz vom Videosignal<br />
** Die Luminaz der drein einzelnen Farbkanäle muss den gleichen Verlauf aufweisen. Sie dürfen sich nur in ihren Maximalwerten unterscheiden!<br />
*** Sonst ist es nicht möglich die Helligkeit zu ändern und dabei die Farbe konstant zu halten<br />
** Die Gammakorrektur sorgt dafür das die Farbwiedergabe auf dem Monitor linear verläuft und nicht quadratisch<br />
*** Notwendig damit wir die gleich Wahrnehmung erzielen können als währe das Kamera-Monitor System nicht vorhanden<br />
<br />
*'''Luma:'''<br />
** Luma ist die gewichtete Summe der drei Gammakorregierten Farbwerte R',G',B'<br />
** Damit ist Luma nicht gleich Luminanz<br />
<br />
*'''Brightness'''<br />
** Brightness ist ein Begriff der beschreibt wie stark eine Fläche Licht emmitiert oder sie hell sie erscheint<br />
** Besitzt kein festes Maß und wird daher sehr frei verwendet -> HSL<br />
<br />
== Farbsysteme, Farbräume, reduzierte Farbräume ==<br />
* Die Intensität einer Farbe ist <math> I = \frac{R + G +B}{3} </math><br />
* Wählt man die Intensität konstant mit <math>I=\frac{1}{3}</math> so ergibt sich eine Ebene die den RGB-Farb Würfel Diagonal schneidet und durch die R,G,B Eckpunkte geht<br />
* Jede Farbkoordinate kann auf diese Ebene projeziert werden -> Ermöglicht die Nutzung dieser Ebene als einfache Farbtafel<br />
** Diese Ebene kann dann noch auf die 0RG- Fläche des RGB Würfels projeziert werden ohne das die Ordnung der Farben gestört werden würde -> Der Farbton einer Farbe lässt sich allein durch r und g beschreiben<br />
* in die rg-Ebene können nun alle in RGB - darstellbaren Farben und alles existierenden Farben eingetragen werden<br />
** Danach erkennt man das sich technisch mit dem RGB-System nur ein kleiner Teil der exisiterenden Farben realisieren lässt<br />
<br />
= Das Normvalenz- oder XYZ-System (GF a 76 - 86) =<br />
<br />
= Farbmessung (GF 1 - 11) =<br />
<br />
* Farbmessung = Ermittlung der drei zu einer Farbvalenz gehörigen Farbmaßzahlen<br />
* 3 Messmethoden: <br />
** Vergleichsmethode oder Gleichheitsverfahren<br />
** Spektralverfahren<br />
** Dreibereichsverfahren<br />
<br />
== Gleichheitsverfahren ==<br />
<br />
* Vergleiche:<br />
** Vorlage mit additivem Gemisch<br />
** Vorlage mit Farbmusterkarten (DIN-Karten)<br />
* unverzichtbar bei physiologischen Untersuchungen<br />
* aufwendig und bei kleinen Probandengruppen ungenau<br />
* d.h. für technische Messungen ohne Bedeutung<br />
<br />
'''Messbedingungen nach DIN:'''<br />
* helladaptiertes und blendfreies Sehen<br />
* unbunter Messraum<br />
* neutrale Gesichtsfeldumgebung mit gleicher oder etwas kleinerer Leuchtdichte als im Messfeld<br />
* gut ausgeruhtes und neutral gestimmtes Auge<br />
* farbnormalsichtiger Beobachter<br />
<br />
== Spektralverfahren ==<br />
<br />
* zu messende Farbvalenz = Summe spektraler Farbvalenzen<br />
* greift auf gemessene Normspektralwertkurven zurück<br />
<br />
# '''spektrale Messung zur Ermittlung der Farbreizfunktion <math>\varphi (\lambda) </math>'''<br />
#* Selbststrahler: direkte Messung der Strahlungsfunktion <math>\rightarrow \varphi (\lambda)= S (\lambda)</math><br />
#* remittierende Vorlage: Remissionsfunktion der Vorlage messen, d.h. Strahlungsfunktion S ist vorher zu bestimmen und aus <math>\varphi (\lambda)</math> heraus zu rechnen <math>\rightarrow \varphi (\lambda)= \beta (\lambda) \cdot S (\lambda)</math><br />
# '''farbvalenzmetrische Auswertung'''<br />
#* wenn <math>\beta (\lambda)</math> ermittelt wurde, kann jede beliebige (tabellierte) Lichtquelle <math>S^{\ast} (\lambda)</math>eingesetzt werden<br />
#: <math><br />
\begin{bmatrix}<br />
X\\Y\\Z<br />
\end{bmatrix}<br />
= k \cdot<br />
\begin{bmatrix}<br />
\int \bar{x} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{y} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{z} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda<br />
\end{bmatrix}<br />
</math><br />
#* Normierungskonstante k:<br />
#** Selbststrahler: nur Farbwertanteile gefragt, d.h. k ist beliebig<br />
#** Körperfarben: Y für mattweißen Körper = 100, d.h. <math>k=\frac{100}{\int {S(\lambda) \cdot \bar{y}(\lambda) d \lambda}}</math><br />
<br />
'''Messgeometrien:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bildergalerie (45°,8°,Transmission) </span><br />
<br />
* ''45°-Geometrie'': Beleuchtung unter 45° schließt Glanzeinfluss aus <math>\rightarrow</math> Sensor blickt senkrecht auf Probe<br />
* ''8°-Geometrie'': Beleuchtung diffus über Ulbricht-Kugel <math>\rightarrow</math> Sensor blickt unter 8° auf Probe; Messung mit/ohne Glanz möglich<br />
* ''Transmissionsgeometrie'': Probe wird durchleuchtet<br />
<br />
== Dreibereichsverfahren ==<br />
[...]<br />
== Spektralmaskenverfahren ==<br />
[...]<br />
<br />
= Klassifikation von Messaufgaben (GF 82 - 86) =<br />
<br />
# Messung von objektiven Eigenschaften, die sich in der Veränderung spektraler Charakteristika niederschlagen<br />
#* vordergründig ist Zusammenhang zwischen Veränderungen in den physikalischen Eigenschaften von Interesse (z.B. Waferinspektion)<br />
#* Zusammenhang sollte eindeutig und von hinreichender Empfindlichkeit sein<br />
#* Wahrnehmung unterschiedlicher Farben eher Nebeneffekt<br />
# Überwachung der Stabilität von farblichen Erscheinungen<br />
#* ist bei einer oder mehreren Beleuchtungen zu überwachen<br />
#* absolute Farbmessung nicht nötig; "Anlernen" auf Farben genügt<br />
#* Abstände im Farbempfinden müssen sich in gleicher Weise in Veränderungen der Sensorsignale wiederspiegeln<br />
# absolute Farbmessung<br />
#* d.h. Ermittlung der korrekten Farbvalenz unter beliebigen Messbedingungen<br />
#* Spektralwertkurven müssen realisiert werden<br />
# Messung des spektralen Remissions- und/oder Transmissionsverhaltens von Materialien<br />
#* ausschließlich spektrale Messverfahren<br />
#* Messung der Strahlungsfunktion und der remittierten Leistungsdichte<br />
#* Berechnung der Farbvalenz bei beliebiger Beleuchtung und des Metamerie-Index<br />
<br />
'''steigende Ansprüche mit steigender Nummerierung'''<br />
<br />
= Einfache Farbkalibrierung (GF 16 - 41) =<br />
<br />
= Color Management (F CM 1 - 20) =<br />
<br />
= Kameras (GF_Ka 1 - 12) =<br />
<br />
'''Einsatzfelder:'''<br />
* ortsaufgelöste Messung von Farbe<br />
* Aufnahme und Wiedergabe von True-Color Bildern<br />
* Aufnahme farbiger oder mehrkanaliger Bilder für die Verarbeitung/Analyse (Qualitätssicherung)<br />
* Photogrammetrische Anwendungen (Lösung des Korrespondenzproblems)<br />
* Radiometrische Anwendungen (Messen im Spektralbereich)<br />
<br />
'''Dreibereichsmessung:'''<br />
* setzt die Trennung von drei sich überlappenden Spektralbereichen voraus, die dann wellenlängenabhängig zu bewerten und zu integrieren sind<br />
<br />
== Dreichip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* optische Kanaltrennung und Bewertung<br />
* beste Bildqualität, da hohe Auflösung in allen drei Kanälen<br />
* keinen örtlichen Versatz der Pixel in den drei Farbauszügen<br />
* Filter einfacher und präziser zu realisieren<br />
* befinden sich z.B. als dichroitische Spiegel auf den Strahteilerprismen<br />
<br />
<span style="color:#ee0000;"> \\ Hot-Mirror-, Cold-Mirror-Korrektur????</span><br />
<br />
== Einchip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: doppelte Anzahl grüner Pixel wegen Schärfe, MTF des Auges </span><br />
<br />
* örtliche Kanaltrennung und Bewertung<br />
* Streifen- oder Mosaikfilterstrukturen auf den einzelnen Pixeln zur örtlichen Signaltrennung<br />
* 3 oder 4 unterschiedliche spektrale Auszuüge zur Erzeugung der Farbinformation<br />
* Matrix selbst kann Interline- oder Frame-Transfer-Matrix sein<br />
* kostengünstiger und kleiner als Dreichip-Kameras<br />
* Probleme:<br />
** Farbvalenzen aus örtlich versetzten Auszügen (z.B. Farbsäume an Kanten)<br />
** nicht korrigierbare Fehler aus Nichtlinearitäten und Dunkelsignalen bei der Bildung von Mischsignalen<br />
<br />
'''generelle Anforderungen an die Signalverarbeitung:'''<br />
<br />
* primäre Kamerasignale stellen keine farbmetrische Schnittstelle zur Verfügung, d.h. alle Bewertungsfunktionen sind nicht-negativ (Spektralwertkurven fordern aber negative Wichtungen)<br />
* je nach realisierten Filtern und Genauigkeitsansprüchen <math>\rightarrow</math> lineare Matrizierung (meist Kameraintern) oder komplexere Approximation<br />
* bei hohen Genauigkeitsansprüchen <math>\rightarrow</math> Umgehung der Kamerainternen Matrizierung, weil Verstärkungsfaktoren, Toleranzen, Temperaturdrift, Langzeitstabilität etc. nicht bekannt sind<br />
* insgesamt geringe Nichtlinearitäten der CCD's können in den Ansteuerbereichen der einzelnen Kanäle zu wesentlichen Fehlern führen:<br />
** Farbvalenz ändert sich kontinuirlich mit der Shutterzeit<br />
** Pixelweise DSNU- (Dunkelsignalungleichförmigkeit) und PRNU- (Hellsignalungleichförmigkeit) Korrektur vor Erzeugung der Farbvalenz erforderlich, da sich Festmusterrauschen nicht nur auf Intensität sondern auch auf Farbart auswirkt<br />
** Dunkelsignal verdoppelt sich alle 7K, Gleichanteil wird aber geklemmt<br />
** Lichtquellentyp und Langzeitverhalten wirken sich nicht nur Intensität sondern auch auf Farbtemperatur aus<br />
<br />
'''4 spektrale Bereiche:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* vorteilhaft zur Erzeugung von Farbdifferenzsignalen für die TV-Kompatibilität<br />
* im Field-Integration-Mode werden Mischsignale gebildet, die die erforderliche Signalkorrektur für hohe Ansprüche behindern<br />
* Nichtlinearität der Ausgangsverstärker wirkt sich auf Korrektur der primären Mischsignale aus<br />
<br />
== Sequentielle Einchip-Kamera ==<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* zeitliche Kanaltrennung und Bewertung<br />
* relativ genaue Approximation der Spektralwertkurven möglich<br />
<br />
== Elektrisch steuerbare Filter ==<br />
<br />
* über die Wellenlängenabhängigkeit der Eindringtiefe der Photonen und die Steuerbarkeit der Tiefe der Potentialmulden der sensoren lassen sich steuerbare spektrale Empfindlichkeiten erzeugen<br />
<br />
= Verarbeitung von Farbbildern (1 - 31) =<br />
<br />
= Referenzfreie Farbadaption auf Basis des 3D-Histogramms (HuS 32 - 39 ) =<br />
<br />
= Histogrammbasiertes Farbmatching(1 - 15) =<br />
<br />
= Störunterdrückung (SU 1 - 16) =<br />
<br />
= Kantendetektion in Farbbildern (1 - 21) =<br />
<br />
= Farbpixelklassifikation (Farbpixelklassifikation 1 - 21) =<br />
<br />
= Clusterverfahren (Farbpixelklassifikation 19 - 45) =<br />
<br />
= Segmentierung (Seg 1 - 8) =<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Grundlagen_der_Farbbildverarbeitung&diff=6974Grundlagen der Farbbildverarbeitung2009-03-13T12:03:01Z<p>DarkGhost: /* Gammakorrektur und Luma */</p>
<hr />
<div>Link zum [http://www.zbs-ilmenau.de/intern/vip-toolkit/index.php Vip toolkit]<br />
= Einführung (GF_a 8 - 47) =<br />
<br />
== Geschichtliches zur Farbe ==<br />
<br />
=== Newton ===<br />
<br />
* 1672: New Theory about Light and Colours<br />
** Sonnenlicht = Mischung einzelner Farben<br />
** Spektralfarben sind objektive Eigenschaft des Lichtes<br />
<br />
[...]<br />
<br />
=== Goethe ===<br />
<br />
[...]<br />
<br />
== Begriff der Farbe ==<br />
<br />
* '''Farbe im engeren Sinn, stellt eine spezielle menschliche Sinneswahrnehmung dar'''<br />
* <math>\Phi_i = \int_{\Delta \lambda_i} \varphi_{\lambda} (\lambda) d \lambda</math><br />
* Leistungsdichte <math>\phi (\lambda)</math> stellt dagegen den Farbreiz dar, der die Farbempfindung hervorruft<br />
* Vektoren <math>\underline \Phi</math> sind je nach Dimension mehr oder minder genaue Approximationen des Farbreizes<br />
<br />
* Orientierung am menschlichen visuellen System und die Betrachtung psychologischer und physiologischer Grundlagen sind von Interesse:<br />
** zur richtigen Bewertung der Schwierigkeiten und Herausforderungen bei der Schaffung technischer Lösungen<br />
** zur Anpassung technischer Lösungen der Bildwiedergabe an das visuelle System<br />
** zur Nutzung optimaler Naturprinzipien für technische Lösungen<br />
** weil technische Systeme im allgemeinen auf dem inneren Modell des Menschen von der Welt beruhen und dieses Modell in hohem Maße durch den visuellen Kanal des Menschen beeinflusst ist<br />
** weil optoelektronische Sensoren, Bildverarbeitung und Bildanalyse wichtige Schnittstellen zwischen Mensch und Maschine darstellen<br />
**weil viele Objekteigenschaften durch visuelle Eindrücke beschrieben werden<br />
<br />
* menschliches Auge kann ca. 100 Graustufen / ca. 300 000 Farben unterscheiden<br />
<br />
* Drei grundsätzliche Anwendungen von Farbinformation:<br />
** Pseudokolorierung<br />
** Falschfarbendarstellung<br />
** Echtfarbdarstellung (True Color) <math>\rarr</math> hier Schwerpunkt<br />
<br />
== Farbtäuschung ==<br />
<br />
* Zuordnung zwischen Physik und Wahrnehmung nur eindeutig wenn bunte Dinge isoliert betrachtet werden<br />
* Werden bunte Objekte in bunte Umgebungen eingebettet/bewegt, dann können abweichende Farbwahrnehmungen auftreten, so genannte Farbtäuschungen<br />
* es existieren unterschiedliche Arten solcher Täuschungen:<br />
** ''Farbinduktion oder simultaner Farbkontrast'' (Farbe wird durch ihre Umgebung modifiziert)<br />
** ''Farbkonflikt'' (es konkurrieren verschiedene Sehinformationen miteinander)<br />
** ''Subjektive Farben'' (es werden bunte Farbtöne wahrgenommen, die nicht vorliegen)<br />
<br />
'''Simultaner Farbkontrast:'''<br />
* erstmals 1839 beschrieben<br />
* wo der Effekt entsteht (Auge, Cortex) ist unklar<br />
<br />
'''Farbinduktion:'''<br />
* bei kleinteiligen, sich wiederholenden Strukturen erfolgt Angleichung<br />
* kann zur Rauschunterdrückung oder zur Unterdrückung von Feintexturen zugunsten der Erkennung größerer Objekte wichtig sein<br />
<br />
'''Farbkonflikt:'''<br />
* Formen und Strukturen konkurrieren mit Farben ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf White'sche Illusion])<br />
<br />
'''Subjektive Farben:'''<br />
* durch Bewegung ist es möglich Farben zu erzeugen die ursprünglich nicht vorhanden waren ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf Drehwurm in Farbe])<br />
<br />
== Farbwahrnehmung beim Menschen ==<br />
<br />
[...]<br />
<br />
=== Rezeptive Wahrnehmung ===<br />
* 1807 stellte Young die Hypothese auf das Farbsehen auf drei Arten von Sinneszellen beruht (rout,grün,blau)<br />
* erst 1964 konnten dies bewiesen werden, durch die Messung der Absorptionsspektren<br />
*[[Datei:Pdt-kurven.svg]]<br />
<br />
=== Postrezeptive Wahrnehmung ===<br />
* Mit dem 3 Farbenmodell konnten einige psychologische Erscheinungen nicht erklärt werden<br />
** Es werden 4 Farben als besonderst "rein" empfunden (Rto, Geln,Grün, Blau)<br />
** Unbunte Farben werden werden als das fehlen von Farben wahrgenommen<br />
** Schwarz schein gleichberechtigt zu Weiß<br />
** keine wahrgenommene Farbe erscheint zugleich rötlich und grün<br />
* das führte zur Gegenfarbentheorie die anfangs nur Psychologisch begründet war 1958 aber physiologisch Nachgewiesen werden konnte<br />
** Rot - Grün<br />
** Gelb - Blau<br />
** Schwarz - Weiß<br />
* → CIELab-Farbraum<br />
<br />
=== Kortikale Kodierung ===<br />
* Weder die 3 Farbentheorie noch die Gegenfarbentheorie beschreiben die bewusste Wahrnehmung des Menschen<br />
* Deshalb erweitertes Modell<br />
** Farbton / Buntton beschreibt die als besonderst rein empfundenen Spektralfarben<br />
** Sättigung beschreibt wie stark eine Farbe verblasst ist<br />
** Helligkeit beschreibt, wie hell oder dunkel eine Farbe ist<br />
* Wo/Wie genau die neuronale Verarbeitung erfolgt, ist noch nicht sicher belegt<br />
<br />
== Die Ordnung in der Welt der Farben ==<br />
* Newton kannte die Wellenlänge noch nicht → er ordnete die Farben nach dem Regenbogen<br />
* Goethe verwendete das Gegenfarbenmodell<br />
* Munsell schlug 1905 ein Farbordnungssystem vor bei dem alle Abstände zwischen den Farben Empfindungsmäßig gleich sind<br />
** führt zu einem geometrisch nicht regelmäßigen Körper<br />
<br />
== Das Modell der Farbe ==<br />
* '''Definition'''<br />
** Farbe ist diejenige Gesichtsempfindung eines dem Auge strukturlos erscheinenden Teils eines Gesichtsfeldes durch die sich diser Teil bei einäugiger Betrachtung mit unbewegtem Auge von einem gleichzeitig gesehenen ebenfalls strukturlos angrenzendem Bezirk allein unterscheidet (unbunte Farben: Schwarz, Weiß und Graustufen, bunte Farben: Helligkeit; Buntheit setzt sich aus Buntton und Farbsättigung zusammen)<br />
** Farbe ist durch Helligkeit, Buntton, Sättigung eindeutig bestimmt → 3D Modell<br />
*** drei linear unabhängige Größen<br />
*** Additive Mischung zur Reproduktion von Farbe (aus Rot, Grün, Blau)<br />
*** drei linearunabhängige Größen spannen immer einen Raum auf → Rot,Grün und Blau werden die Achsen dieses Raumes<br />
<br />
=== Farbvalenz ===<br />
* Mit unserem Modell läßt sich jede Farbe als linearkombination unserer drei Basisvektoren aufschreiben<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
** <math> \vec F</math> ... Farbvalenz<br />
** <math> \vec r, \vec g, \vec b </math> ... die drei Basisvektoren die den Raum aufspannen (Rot, Grün und Blau)<br />
** <math> R,G,B, |\vec F| </math> ... die Farbwerte<br />
** <math> \vec r \cdot R, \vec g \cdot G, \vec b \cdot B </math> ... die drei Primärvalenzen<br />
* Ermittelt werden die Farbwerte mit Hilfe der Vergleichsmethode<br />
** Eine Person vergleicht ein Target mit einer Farbe die aus den drei Primärvalenzen gemischt wird<br />
** wenn die Empfindung der beiden Farben gleich ist, dann notieren wir die Werte<br />
* Innere Farbmischung<br />
** das Target wird mit weißen Licht beleuchtet und wir drehen nur an dem Farbmischgerät<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
* Äußere Farbmischung<br />
** Wir beleuchten das Target mit farbigen Lichte<br />
**<math> \vec F+ B \cdot \vec b = R \cdot \vec r + G \cdot \vec g \rightarrow \vec F = R \cdot \vec r + G \cdot \vec g - B \cdot \vec b</math><br />
<br />
=== Farbreizmetrik ===<br />
* Die Farbreizfunktion <math> \varphi_\lambda</math> beschreibt die spektrale Zusammensetzung der Farbempfindungen<br />
*# Selbstleuchtende Objekte<br />
*#* <math> S_\lambda (\lambda)</math> beschreibt die spektrale Verteilung der Quelle<br />
*#* Wahrnehmung: <math> \varphi_\lambda = S_\lambda</math><br />
*# Auflicht Vorlagen<br />
*#* <math>\beta_\lambda(\lambda)</math> beschreibt den spektralen Remisionsgrad der Vorlage<br />
*#* Wahrnehmung: Licht reflektiert von der Vorlage <math> \varphi_\lambda = S_\lambda \cdot \beta_\lambda</math><br />
*# Durchlichtvorlagen<br />
*#* <math>\tau_\lambda(\lambda)</math> spektraler Transmissionsgrad der Vorlage<br />
*#* Wahrnehmung von Licht welches die Vorlage durchdrungen hat <math>\varphi_\lambda= S_\lambda \cdot \tau_\lambda</math><br />
* Damit haben folgende Faktoren Auswirkung auf die Wahrgenommene Farbe<br />
*# Die Beleuchtung des Objektes (Spektrale Zusammensetzung des Lichtes der Lampe)<br />
*# Das Remmisionsverhalten der beleuchteten Oberfläche<br />
*# Die wellenlängenabhängige Empfindlichkeit der drei Zapfen des Auges<br />
* Es besteht die Möglichkeit die pdt Kurven direkt zur Beschreibung des Farbempfindens zu nutzen<br />
* Die Farbwerte könnte man dann wie folgt ermitteln: <math> \left(\begin{matrix}P\\D\\T\end{matrix}\right)=k\int_{380\mathit{nm}}^{780\mathit{nm}}\varphi (\lambda )\cdot \left(\begin{matrix}p(\lambda )\\d(\lambda )\\t(\lambda )\end{matrix}\right)d\lambda </math><br />
* Für die technische Darstellung von Farbe werden allerdings R,G,B werte benötigt<br />
* Die dafür notwendigen Spektralwertkurven können mit Hilfe der Vergleichsmethode ermittelt werden<br />
* Man erhält damit folgende Kurven<br />
[[Datei:SpektralwertfunktionenRGB.jpg]]<br />
* Mit der gleichen Formel wie bei der pdt Kurve lassen sich nun die R,G,B Werte rechnerisch ermitteln<br />
<br />
== Farbanalyse, Zusammenhang mit der Farbwidergabe ==<br />
* Das Kammera - Monitor System soll die Farbe exakt wiedergeben<br />
* Der Monitor verwendet EBU Phosphore für die Farbdarstellung<br />
** haben selbst Spektralwert kurven => keine Monochromatischen Lichter mehr<br />
* Die notwendigen spektralwertkurven die die Kamera realisieren muss um die Bilder auf dem Monitor exakt darzustellen lassen sich mit Hilfe der pdt Kurven herleiten (Über forderung der Gleicheit der Farben)<br />
* Sie besitzen stark negative Anteile => Auch die Filter der Kamera müssten negative Transsmissionsgrade besitzen<br />
** technisch ist das nicht möglich<br />
* es bleibt also nur die Möglichkeit die notwendigen Parameter zur Ansteuerung des Monitors aus positive one-peak Kurven zu berechnen<br />
<br />
== Subtraktive Farbmischung ==<br />
* Die Subtraktive Farbmischung lässt sich auf die Multiplikation der Transmissionsgrade zurückführen (ein Filter lässt 50% rotes licht durch, wenn man zwei dieser Filter hintereinander legt, dann geht nur noch 25% rotes Licht durch die Anordnung (0.5*0.5 = 0.25) )<br />
* wenn <math> \tau_0 </math> die Transmission eines Filters für die normierte Dicke 1 und die normiert Dichte 1 ist dann kann man<br />
** mit dem Lambertschen Absorbtionsgesetzt die Absortption von dickern/düneren Material berechnen <br> <math> \tau = [ \tau_0]^w </math><br />
*** w ... Dicke des Materials im Verhältnis zum norm Material<br />
** mit dem Beerschen Gesetz die Transmission von Meterial mit anderer Dichte berechnen <br><math> \tau = [ \tau_0]^c </math><br />
*** c... Das Verhältnis der neuen zur alten Dichte<br />
** kann man auch kombinieren zu (Lambert-Beersches Gesetz)<br />
** <math> \tau = [ \tau_0]^{c \cdot w} </math><br />
* Da sich die Transmission Multiplikativ zusammensetzt wird auch gerne mit dem logarithmus der Transmission gerechnet (optische Dichte)<br />
**<math> D = - lg \tau = lg \frac{1}{\tau}</math><br />
** Damit vereinfacht sich das Lambert-Beersche gesetz zu: <math> D = c \cdot w \cdot D_0</math><br />
* selbstverständlich sind die Transmission <math>\tau</math> und die optische Dichte D von der Wellenlänge abhänig ... zur Übersichtlichkeit wurde das in den Formeln nur weggelassen<br />
* Bei einem Papierbild kommt zu dem Filter noch die Reflexion an der Farboberfläche und an der Papieroberfläche<br />
** Beachte das Licht was an der erste Schicht wegreflektiert wird kann icht tiefer eindringen. Nur noch <math> (1-\beta)*S </math> dringt an Licht durch den ersten Filter!<br />
*** <math> \beta </math> ... Remmisionsgrad der ersten Farbe<br />
*** <math> S </math> ... Spektrale Verteilung der Lichtquelle<br />
<br />
= Farbmetrische Schnittstellen - Farbräume (GF a 49 - 55) =<br />
<br />
<pre><br />
Unterschiedliche bildgebende Systeme<br />
z.B. Farbkameras<br />
Farbscanner<br />
Spezialkameras<br />
</pre><br />
'''Widerspruch''' <math>\updownarrow</math> Farbmetrische Schnittstelle<br />
<pre><br />
Unterschiedliche Bildwiedergabesysteme<br />
"True-Color-Darstellung"<br />
- unterschiedliche Monitore, Beamer, Drucker etc.<br />
</pre><br />
<br />
== Leuchtdichte (Luminanz) ==<br />
<br />
* Luminanz Y ist die Strahlungsleistung, bewertet mit der spektralen Empfindlichkeitsfunktion des Auges für das Hellempfinden<br />
* Y ist Leistungsproportional, wenn Lichtzusammensetzung (Leistungsdichte <math>\Theta (\lambda))</math> konstant bleibt<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* Leuchtdichte berechnet sich nach dem ''Abneyschen Gesetz'':<br />
: <math> Y = L = k \cdot \underline L^T \cdot \underline F </math><br />
:* <math>\underline L^T - </math> Leuchtdichtebeiwert: gibt an wie groß der Beitrag jedes Farbwertes der Farbvalenz zum Helleindruck ist, abhängig vom gewählten Farbwiedergabesystem<br />
* Leuchtdichte L <math>\ne</math> Intensität I<br />
: <math> I = \frac 1 3 (R+G+B)</math><br />
<br />
* die perzeptuelle Antwort unseres Auges auf die Leuchtdichte wird Helligkeit (Lightness) genannt<br />
: <math><br />
L^{\star} = \begin{cases}<br />
116 \cdot \sqrt [3] {\frac Y {Y_n}} -16, & \text{wenn } \frac Y {Y_n} > 0{,}008856\\<br />
903{,}3 \cdot {\frac Y {Y_n}}, & \text{wenn } \frac Y {Y_n} \le 0{,}008856<br />
\end{cases}<br />
</math><br />
<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: Eine Quelle die nur 18% der Luminanz einer Referenz hat, erscheint uns immer noch halb so hell wie die Referenz </span><br />
<br />
== Gammakorrektur und Luma ==<br />
* '''Gammakorrektur:'''<br />
** Aufgrund der Ansteuerung von CRT Monitoren und der verwendeten Phosphore ergibt sich ungefähr eine quadratische Abhängigkeit der Luminanz vom Videosignal<br />
** Die Luminaz der drein einzelnen Farbkanäle muss den gleichen Verlauf aufweisen. Sie dürfen sich nur in ihren Maximalwerten unterscheiden!<br />
*** Sonst ist es nicht möglich die Helligkeit zu ändern und dabei die Farbe konstant zu halten<br />
** Die Gammakorrektur sorgt dafür das die Farbwiedergabe auf dem Monitor linear verläuft und nicht quadratisch<br />
*** Notwendig damit wir die gleich Wahrnehmung erzielen können als währe das Kamera-Monitor System nicht vorhanden<br />
<br />
*'''Luma:'''<br />
** Luma ist die gewichtete Summe der drei Gammakorregierten Farbwerte R',G',B'<br />
** Damit ist Luma nicht gleich Luminanz<br />
<br />
*'''Brightness'''<br />
** Brightness ist ein Begriff der beschreibt wie stark eine Fläche Licht emmitiert oder sie hell sie erscheint<br />
** Besitzt kein festes Maß und wird daher sehr frei verwendet -> HSL<br />
<br />
== Farbsysteme, Farbräume, reduzierte Farbräume ==<br />
<br />
= Das Normvalenz- oder XYZ-System (GF a 76 - 86) =<br />
<br />
= Farbmessung (GF 1 - 11) =<br />
<br />
* Farbmessung = Ermittlung der drei zu einer Farbvalenz gehörigen Farbmaßzahlen<br />
* 3 Messmethoden: <br />
** Vergleichsmethode oder Gleichheitsverfahren<br />
** Spektralverfahren<br />
** Dreibereichsverfahren<br />
<br />
== Gleichheitsverfahren ==<br />
<br />
* Vergleiche:<br />
** Vorlage mit additivem Gemisch<br />
** Vorlage mit Farbmusterkarten (DIN-Karten)<br />
* unverzichtbar bei physiologischen Untersuchungen<br />
* aufwendig und bei kleinen Probandengruppen ungenau<br />
* d.h. für technische Messungen ohne Bedeutung<br />
<br />
'''Messbedingungen nach DIN:'''<br />
* helladaptiertes und blendfreies Sehen<br />
* unbunter Messraum<br />
* neutrale Gesichtsfeldumgebung mit gleicher oder etwas kleinerer Leuchtdichte als im Messfeld<br />
* gut ausgeruhtes und neutral gestimmtes Auge<br />
* farbnormalsichtiger Beobachter<br />
<br />
== Spektralverfahren ==<br />
<br />
* zu messende Farbvalenz = Summe spektraler Farbvalenzen<br />
* greift auf gemessene Normspektralwertkurven zurück<br />
<br />
# '''spektrale Messung zur Ermittlung der Farbreizfunktion <math>\varphi (\lambda) </math>'''<br />
#* Selbststrahler: direkte Messung der Strahlungsfunktion <math>\rightarrow \varphi (\lambda)= S (\lambda)</math><br />
#* remittierende Vorlage: Remissionsfunktion der Vorlage messen, d.h. Strahlungsfunktion S ist vorher zu bestimmen und aus <math>\varphi (\lambda)</math> heraus zu rechnen <math>\rightarrow \varphi (\lambda)= \beta (\lambda) \cdot S (\lambda)</math><br />
# '''farbvalenzmetrische Auswertung'''<br />
#* wenn <math>\beta (\lambda)</math> ermittelt wurde, kann jede beliebige (tabellierte) Lichtquelle <math>S^{\ast} (\lambda)</math>eingesetzt werden<br />
#: <math><br />
\begin{bmatrix}<br />
X\\Y\\Z<br />
\end{bmatrix}<br />
= k \cdot<br />
\begin{bmatrix}<br />
\int \bar{x} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{y} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{z} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda<br />
\end{bmatrix}<br />
</math><br />
#* Normierungskonstante k:<br />
#** Selbststrahler: nur Farbwertanteile gefragt, d.h. k ist beliebig<br />
#** Körperfarben: Y für mattweißen Körper = 100, d.h. <math>k=\frac{100}{\int {S(\lambda) \cdot \bar{y}(\lambda) d \lambda}}</math><br />
<br />
'''Messgeometrien:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bildergalerie (45°,8°,Transmission) </span><br />
<br />
* ''45°-Geometrie'': Beleuchtung unter 45° schließt Glanzeinfluss aus <math>\rightarrow</math> Sensor blickt senkrecht auf Probe<br />
* ''8°-Geometrie'': Beleuchtung diffus über Ulbricht-Kugel <math>\rightarrow</math> Sensor blickt unter 8° auf Probe; Messung mit/ohne Glanz möglich<br />
* ''Transmissionsgeometrie'': Probe wird durchleuchtet<br />
<br />
== Dreibereichsverfahren ==<br />
[...]<br />
== Spektralmaskenverfahren ==<br />
[...]<br />
<br />
= Klassifikation von Messaufgaben (GF 82 - 86) =<br />
<br />
# Messung von objektiven Eigenschaften, die sich in der Veränderung spektraler Charakteristika niederschlagen<br />
#* vordergründig ist Zusammenhang zwischen Veränderungen in den physikalischen Eigenschaften von Interesse (z.B. Waferinspektion)<br />
#* Zusammenhang sollte eindeutig und von hinreichender Empfindlichkeit sein<br />
#* Wahrnehmung unterschiedlicher Farben eher Nebeneffekt<br />
# Überwachung der Stabilität von farblichen Erscheinungen<br />
#* ist bei einer oder mehreren Beleuchtungen zu überwachen<br />
#* absolute Farbmessung nicht nötig; "Anlernen" auf Farben genügt<br />
#* Abstände im Farbempfinden müssen sich in gleicher Weise in Veränderungen der Sensorsignale wiederspiegeln<br />
# absolute Farbmessung<br />
#* d.h. Ermittlung der korrekten Farbvalenz unter beliebigen Messbedingungen<br />
#* Spektralwertkurven müssen realisiert werden<br />
# Messung des spektralen Remissions- und/oder Transmissionsverhaltens von Materialien<br />
#* ausschließlich spektrale Messverfahren<br />
#* Messung der Strahlungsfunktion und der remittierten Leistungsdichte<br />
#* Berechnung der Farbvalenz bei beliebiger Beleuchtung und des Metamerie-Index<br />
<br />
'''steigende Ansprüche mit steigender Nummerierung'''<br />
<br />
= Einfache Farbkalibrierung (GF 16 - 41) =<br />
<br />
= Color Management (F CM 1 - 20) =<br />
<br />
= Kameras (GF_Ka 1 - 12) =<br />
<br />
'''Einsatzfelder:'''<br />
* ortsaufgelöste Messung von Farbe<br />
* Aufnahme und Wiedergabe von True-Color Bildern<br />
* Aufnahme farbiger oder mehrkanaliger Bilder für die Verarbeitung/Analyse (Qualitätssicherung)<br />
* Photogrammetrische Anwendungen (Lösung des Korrespondenzproblems)<br />
* Radiometrische Anwendungen (Messen im Spektralbereich)<br />
<br />
'''Dreibereichsmessung:'''<br />
* setzt die Trennung von drei sich überlappenden Spektralbereichen voraus, die dann wellenlängenabhängig zu bewerten und zu integrieren sind<br />
<br />
== Dreichip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* optische Kanaltrennung und Bewertung<br />
* beste Bildqualität, da hohe Auflösung in allen drei Kanälen<br />
* keinen örtlichen Versatz der Pixel in den drei Farbauszügen<br />
* Filter einfacher und präziser zu realisieren<br />
* befinden sich z.B. als dichroitische Spiegel auf den Strahteilerprismen<br />
<br />
<span style="color:#ee0000;"> \\ Hot-Mirror-, Cold-Mirror-Korrektur????</span><br />
<br />
== Einchip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: doppelte Anzahl grüner Pixel wegen Schärfe, MTF des Auges </span><br />
<br />
* örtliche Kanaltrennung und Bewertung<br />
* Streifen- oder Mosaikfilterstrukturen auf den einzelnen Pixeln zur örtlichen Signaltrennung<br />
* 3 oder 4 unterschiedliche spektrale Auszuüge zur Erzeugung der Farbinformation<br />
* Matrix selbst kann Interline- oder Frame-Transfer-Matrix sein<br />
* kostengünstiger und kleiner als Dreichip-Kameras<br />
* Probleme:<br />
** Farbvalenzen aus örtlich versetzten Auszügen (z.B. Farbsäume an Kanten)<br />
** nicht korrigierbare Fehler aus Nichtlinearitäten und Dunkelsignalen bei der Bildung von Mischsignalen<br />
<br />
'''generelle Anforderungen an die Signalverarbeitung:'''<br />
<br />
* primäre Kamerasignale stellen keine farbmetrische Schnittstelle zur Verfügung, d.h. alle Bewertungsfunktionen sind nicht-negativ (Spektralwertkurven fordern aber negative Wichtungen)<br />
* je nach realisierten Filtern und Genauigkeitsansprüchen <math>\rightarrow</math> lineare Matrizierung (meist Kameraintern) oder komplexere Approximation<br />
* bei hohen Genauigkeitsansprüchen <math>\rightarrow</math> Umgehung der Kamerainternen Matrizierung, weil Verstärkungsfaktoren, Toleranzen, Temperaturdrift, Langzeitstabilität etc. nicht bekannt sind<br />
* insgesamt geringe Nichtlinearitäten der CCD's können in den Ansteuerbereichen der einzelnen Kanäle zu wesentlichen Fehlern führen:<br />
** Farbvalenz ändert sich kontinuirlich mit der Shutterzeit<br />
** Pixelweise DSNU- (Dunkelsignalungleichförmigkeit) und PRNU- (Hellsignalungleichförmigkeit) Korrektur vor Erzeugung der Farbvalenz erforderlich, da sich Festmusterrauschen nicht nur auf Intensität sondern auch auf Farbart auswirkt<br />
** Dunkelsignal verdoppelt sich alle 7K, Gleichanteil wird aber geklemmt<br />
** Lichtquellentyp und Langzeitverhalten wirken sich nicht nur Intensität sondern auch auf Farbtemperatur aus<br />
<br />
'''4 spektrale Bereiche:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* vorteilhaft zur Erzeugung von Farbdifferenzsignalen für die TV-Kompatibilität<br />
* im Field-Integration-Mode werden Mischsignale gebildet, die die erforderliche Signalkorrektur für hohe Ansprüche behindern<br />
* Nichtlinearität der Ausgangsverstärker wirkt sich auf Korrektur der primären Mischsignale aus<br />
<br />
== Sequentielle Einchip-Kamera ==<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* zeitliche Kanaltrennung und Bewertung<br />
* relativ genaue Approximation der Spektralwertkurven möglich<br />
<br />
== Elektrisch steuerbare Filter ==<br />
<br />
* über die Wellenlängenabhängigkeit der Eindringtiefe der Photonen und die Steuerbarkeit der Tiefe der Potentialmulden der sensoren lassen sich steuerbare spektrale Empfindlichkeiten erzeugen<br />
<br />
= Verarbeitung von Farbbildern (1 - 31) =<br />
<br />
= Referenzfreie Farbadaption auf Basis des 3D-Histogramms (HuS 32 - 39 ) =<br />
<br />
= Histogrammbasiertes Farbmatching(1 - 15) =<br />
<br />
= Störunterdrückung (SU 1 - 16) =<br />
<br />
= Kantendetektion in Farbbildern (1 - 21) =<br />
<br />
= Farbpixelklassifikation (Farbpixelklassifikation 1 - 21) =<br />
<br />
= Clusterverfahren (Farbpixelklassifikation 19 - 45) =<br />
<br />
= Segmentierung (Seg 1 - 8) =<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Grundlagen_der_Farbbildverarbeitung&diff=6973Grundlagen der Farbbildverarbeitung2009-03-12T17:15:21Z<p>DarkGhost: /* Subtraktive Farbmischung */</p>
<hr />
<div>Link zum [http://www.zbs-ilmenau.de/intern/vip-toolkit/index.php Vip toolkit]<br />
= Einführung (GF_a 8 - 47) =<br />
<br />
== Geschichtliches zur Farbe ==<br />
<br />
=== Newton ===<br />
<br />
* 1672: New Theory about Light and Colours<br />
** Sonnenlicht = Mischung einzelner Farben<br />
** Spektralfarben sind objektive Eigenschaft des Lichtes<br />
<br />
[...]<br />
<br />
=== Goethe ===<br />
<br />
[...]<br />
<br />
== Begriff der Farbe ==<br />
<br />
* '''Farbe im engeren Sinn, stellt eine spezielle menschliche Sinneswahrnehmung dar'''<br />
* <math>\Phi_i = \int_{\Delta \lambda_i} \varphi_{\lambda} (\lambda) d \lambda</math><br />
* Leistungsdichte <math>\phi (\lambda)</math> stellt dagegen den Farbreiz dar, der die Farbempfindung hervorruft<br />
* Vektoren <math>\underline \Phi</math> sind je nach Dimension mehr oder minder genaue Approximationen des Farbreizes<br />
<br />
* Orientierung am menschlichen visuellen System und die Betrachtung psychologischer und physiologischer Grundlagen sind von Interesse:<br />
** zur richtigen Bewertung der Schwierigkeiten und Herausforderungen bei der Schaffung technischer Lösungen<br />
** zur Anpassung technischer Lösungen der Bildwiedergabe an das visuelle System<br />
** zur Nutzung optimaler Naturprinzipien für technische Lösungen<br />
** weil technische Systeme im allgemeinen auf dem inneren Modell des Menschen von der Welt beruhen und dieses Modell in hohem Maße durch den visuellen Kanal des Menschen beeinflusst ist<br />
** weil optoelektronische Sensoren, Bildverarbeitung und Bildanalyse wichtige Schnittstellen zwischen Mensch und Maschine darstellen<br />
**weil viele Objekteigenschaften durch visuelle Eindrücke beschrieben werden<br />
<br />
* menschliches Auge kann ca. 100 Graustufen / ca. 300 000 Farben unterscheiden<br />
<br />
* Drei grundsätzliche Anwendungen von Farbinformation:<br />
** Pseudokolorierung<br />
** Falschfarbendarstellung<br />
** Echtfarbdarstellung (True Color) <math>\rarr</math> hier Schwerpunkt<br />
<br />
== Farbtäuschung ==<br />
<br />
* Zuordnung zwischen Physik und Wahrnehmung nur eindeutig wenn bunte Dinge isoliert betrachtet werden<br />
* Werden bunte Objekte in bunte Umgebungen eingebettet/bewegt, dann können abweichende Farbwahrnehmungen auftreten, so genannte Farbtäuschungen<br />
* es existieren unterschiedliche Arten solcher Täuschungen:<br />
** ''Farbinduktion oder simultaner Farbkontrast'' (Farbe wird durch ihre Umgebung modifiziert)<br />
** ''Farbkonflikt'' (es konkurrieren verschiedene Sehinformationen miteinander)<br />
** ''Subjektive Farben'' (es werden bunte Farbtöne wahrgenommen, die nicht vorliegen)<br />
<br />
'''Simultaner Farbkontrast:'''<br />
* erstmals 1839 beschrieben<br />
* wo der Effekt entsteht (Auge, Cortex) ist unklar<br />
<br />
'''Farbinduktion:'''<br />
* bei kleinteiligen, sich wiederholenden Strukturen erfolgt Angleichung<br />
* kann zur Rauschunterdrückung oder zur Unterdrückung von Feintexturen zugunsten der Erkennung größerer Objekte wichtig sein<br />
<br />
'''Farbkonflikt:'''<br />
* Formen und Strukturen konkurrieren mit Farben ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf White'sche Illusion])<br />
<br />
'''Subjektive Farben:'''<br />
* durch Bewegung ist es möglich Farben zu erzeugen die ursprünglich nicht vorhanden waren ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf Drehwurm in Farbe])<br />
<br />
== Farbwahrnehmung beim Menschen ==<br />
<br />
[...]<br />
<br />
=== Rezeptive Wahrnehmung ===<br />
* 1807 stellte Young die Hypothese auf das Farbsehen auf drei Arten von Sinneszellen beruht (rout,grün,blau)<br />
* erst 1964 konnten dies bewiesen werden, durch die Messung der Absorptionsspektren<br />
*[[Datei:Pdt-kurven.svg]]<br />
<br />
=== Postrezeptive Wahrnehmung ===<br />
* Mit dem 3 Farbenmodell konnten einige psychologische Erscheinungen nicht erklärt werden<br />
** Es werden 4 Farben als besonderst "rein" empfunden (Rto, Geln,Grün, Blau)<br />
** Unbunte Farben werden werden als das fehlen von Farben wahrgenommen<br />
** Schwarz schein gleichberechtigt zu Weiß<br />
** keine wahrgenommene Farbe erscheint zugleich rötlich und grün<br />
* das führte zur Gegenfarbentheorie die anfangs nur Psychologisch begründet war 1958 aber physiologisch Nachgewiesen werden konnte<br />
** Rot - Grün<br />
** Gelb - Blau<br />
** Schwarz - Weiß<br />
* → CIELab-Farbraum<br />
<br />
=== Kortikale Kodierung ===<br />
* Weder die 3 Farbentheorie noch die Gegenfarbentheorie beschreiben die bewusste Wahrnehmung des Menschen<br />
* Deshalb erweitertes Modell<br />
** Farbton / Buntton beschreibt die als besonderst rein empfundenen Spektralfarben<br />
** Sättigung beschreibt wie stark eine Farbe verblasst ist<br />
** Helligkeit beschreibt, wie hell oder dunkel eine Farbe ist<br />
* Wo/Wie genau die neuronale Verarbeitung erfolgt, ist noch nicht sicher belegt<br />
<br />
== Die Ordnung in der Welt der Farben ==<br />
* Newton kannte die Wellenlänge noch nicht → er ordnete die Farben nach dem Regenbogen<br />
* Goethe verwendete das Gegenfarbenmodell<br />
* Munsell schlug 1905 ein Farbordnungssystem vor bei dem alle Abstände zwischen den Farben Empfindungsmäßig gleich sind<br />
** führt zu einem geometrisch nicht regelmäßigen Körper<br />
<br />
== Das Modell der Farbe ==<br />
* '''Definition'''<br />
** Farbe ist diejenige Gesichtsempfindung eines dem Auge strukturlos erscheinenden Teils eines Gesichtsfeldes durch die sich diser Teil bei einäugiger Betrachtung mit unbewegtem Auge von einem gleichzeitig gesehenen ebenfalls strukturlos angrenzendem Bezirk allein unterscheidet (unbunte Farben: Schwarz, Weiß und Graustufen, bunte Farben: Helligkeit; Buntheit setzt sich aus Buntton und Farbsättigung zusammen)<br />
** Farbe ist durch Helligkeit, Buntton, Sättigung eindeutig bestimmt → 3D Modell<br />
*** drei linear unabhängige Größen<br />
*** Additive Mischung zur Reproduktion von Farbe (aus Rot, Grün, Blau)<br />
*** drei linearunabhängige Größen spannen immer einen Raum auf → Rot,Grün und Blau werden die Achsen dieses Raumes<br />
<br />
=== Farbvalenz ===<br />
* Mit unserem Modell läßt sich jede Farbe als linearkombination unserer drei Basisvektoren aufschreiben<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
** <math> \vec F</math> ... Farbvalenz<br />
** <math> \vec r, \vec g, \vec b </math> ... die drei Basisvektoren die den Raum aufspannen (Rot, Grün und Blau)<br />
** <math> R,G,B, |\vec F| </math> ... die Farbwerte<br />
** <math> \vec r \cdot R, \vec g \cdot G, \vec b \cdot B </math> ... die drei Primärvalenzen<br />
* Ermittelt werden die Farbwerte mit Hilfe der Vergleichsmethode<br />
** Eine Person vergleicht ein Target mit einer Farbe die aus den drei Primärvalenzen gemischt wird<br />
** wenn die Empfindung der beiden Farben gleich ist, dann notieren wir die Werte<br />
* Innere Farbmischung<br />
** das Target wird mit weißen Licht beleuchtet und wir drehen nur an dem Farbmischgerät<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
* Äußere Farbmischung<br />
** Wir beleuchten das Target mit farbigen Lichte<br />
**<math> \vec F+ B \cdot \vec b = R \cdot \vec r + G \cdot \vec g \rightarrow \vec F = R \cdot \vec r + G \cdot \vec g - B \cdot \vec b</math><br />
<br />
=== Farbreizmetrik ===<br />
* Die Farbreizfunktion <math> \varphi_\lambda</math> beschreibt die spektrale Zusammensetzung der Farbempfindungen<br />
*# Selbstleuchtende Objekte<br />
*#* <math> S_\lambda (\lambda)</math> beschreibt die spektrale Verteilung der Quelle<br />
*#* Wahrnehmung: <math> \varphi_\lambda = S_\lambda</math><br />
*# Auflicht Vorlagen<br />
*#* <math>\beta_\lambda(\lambda)</math> beschreibt den spektralen Remisionsgrad der Vorlage<br />
*#* Wahrnehmung: Licht reflektiert von der Vorlage <math> \varphi_\lambda = S_\lambda \cdot \beta_\lambda</math><br />
*# Durchlichtvorlagen<br />
*#* <math>\tau_\lambda(\lambda)</math> spektraler Transmissionsgrad der Vorlage<br />
*#* Wahrnehmung von Licht welches die Vorlage durchdrungen hat <math>\varphi_\lambda= S_\lambda \cdot \tau_\lambda</math><br />
* Damit haben folgende Faktoren Auswirkung auf die Wahrgenommene Farbe<br />
*# Die Beleuchtung des Objektes (Spektrale Zusammensetzung des Lichtes der Lampe)<br />
*# Das Remmisionsverhalten der beleuchteten Oberfläche<br />
*# Die wellenlängenabhängige Empfindlichkeit der drei Zapfen des Auges<br />
* Es besteht die Möglichkeit die pdt Kurven direkt zur Beschreibung des Farbempfindens zu nutzen<br />
* Die Farbwerte könnte man dann wie folgt ermitteln: <math> \left(\begin{matrix}P\\D\\T\end{matrix}\right)=k\int_{380\mathit{nm}}^{780\mathit{nm}}\varphi (\lambda )\cdot \left(\begin{matrix}p(\lambda )\\d(\lambda )\\t(\lambda )\end{matrix}\right)d\lambda </math><br />
* Für die technische Darstellung von Farbe werden allerdings R,G,B werte benötigt<br />
* Die dafür notwendigen Spektralwertkurven können mit Hilfe der Vergleichsmethode ermittelt werden<br />
* Man erhält damit folgende Kurven<br />
[[Datei:SpektralwertfunktionenRGB.jpg]]<br />
* Mit der gleichen Formel wie bei der pdt Kurve lassen sich nun die R,G,B Werte rechnerisch ermitteln<br />
<br />
== Farbanalyse, Zusammenhang mit der Farbwidergabe ==<br />
* Das Kammera - Monitor System soll die Farbe exakt wiedergeben<br />
* Der Monitor verwendet EBU Phosphore für die Farbdarstellung<br />
** haben selbst Spektralwert kurven => keine Monochromatischen Lichter mehr<br />
* Die notwendigen spektralwertkurven die die Kamera realisieren muss um die Bilder auf dem Monitor exakt darzustellen lassen sich mit Hilfe der pdt Kurven herleiten (Über forderung der Gleicheit der Farben)<br />
* Sie besitzen stark negative Anteile => Auch die Filter der Kamera müssten negative Transsmissionsgrade besitzen<br />
** technisch ist das nicht möglich<br />
* es bleibt also nur die Möglichkeit die notwendigen Parameter zur Ansteuerung des Monitors aus positive one-peak Kurven zu berechnen<br />
<br />
== Subtraktive Farbmischung ==<br />
* Die Subtraktive Farbmischung lässt sich auf die Multiplikation der Transmissionsgrade zurückführen (ein Filter lässt 50% rotes licht durch, wenn man zwei dieser Filter hintereinander legt, dann geht nur noch 25% rotes Licht durch die Anordnung (0.5*0.5 = 0.25) )<br />
* wenn <math> \tau_0 </math> die Transmission eines Filters für die normierte Dicke 1 und die normiert Dichte 1 ist dann kann man<br />
** mit dem Lambertschen Absorbtionsgesetzt die Absortption von dickern/düneren Material berechnen <br> <math> \tau = [ \tau_0]^w </math><br />
*** w ... Dicke des Materials im Verhältnis zum norm Material<br />
** mit dem Beerschen Gesetz die Transmission von Meterial mit anderer Dichte berechnen <br><math> \tau = [ \tau_0]^c </math><br />
*** c... Das Verhältnis der neuen zur alten Dichte<br />
** kann man auch kombinieren zu (Lambert-Beersches Gesetz)<br />
** <math> \tau = [ \tau_0]^{c \cdot w} </math><br />
* Da sich die Transmission Multiplikativ zusammensetzt wird auch gerne mit dem logarithmus der Transmission gerechnet (optische Dichte)<br />
**<math> D = - lg \tau = lg \frac{1}{\tau}</math><br />
** Damit vereinfacht sich das Lambert-Beersche gesetz zu: <math> D = c \cdot w \cdot D_0</math><br />
* selbstverständlich sind die Transmission <math>\tau</math> und die optische Dichte D von der Wellenlänge abhänig ... zur Übersichtlichkeit wurde das in den Formeln nur weggelassen<br />
* Bei einem Papierbild kommt zu dem Filter noch die Reflexion an der Farboberfläche und an der Papieroberfläche<br />
** Beachte das Licht was an der erste Schicht wegreflektiert wird kann icht tiefer eindringen. Nur noch <math> (1-\beta)*S </math> dringt an Licht durch den ersten Filter!<br />
*** <math> \beta </math> ... Remmisionsgrad der ersten Farbe<br />
*** <math> S </math> ... Spektrale Verteilung der Lichtquelle<br />
<br />
= Farbmetrische Schnittstellen - Farbräume (GF a 49 - 55) =<br />
<br />
<pre><br />
Unterschiedliche bildgebende Systeme<br />
z.B. Farbkameras<br />
Farbscanner<br />
Spezialkameras<br />
</pre><br />
'''Widerspruch''' <math>\updownarrow</math> Farbmetrische Schnittstelle<br />
<pre><br />
Unterschiedliche Bildwiedergabesysteme<br />
"True-Color-Darstellung"<br />
- unterschiedliche Monitore, Beamer, Drucker etc.<br />
</pre><br />
<br />
== Leuchtdichte (Luminanz) ==<br />
<br />
* Luminanz Y ist die Strahlungsleistung, bewertet mit der spektralen Empfindlichkeitsfunktion des Auges für das Hellempfinden<br />
* Y ist Leistungsproportional, wenn Lichtzusammensetzung (Leistungsdichte <math>\Theta (\lambda))</math> konstant bleibt<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* Leuchtdichte berechnet sich nach dem ''Abneyschen Gesetz'':<br />
: <math> Y = L = k \cdot \underline L^T \cdot \underline F </math><br />
:* <math>\underline L^T - </math> Leuchtdichtebeiwert: gibt an wie groß der Beitrag jedes Farbwertes der Farbvalenz zum Helleindruck ist, abhängig vom gewählten Farbwiedergabesystem<br />
* Leuchtdichte L <math>\ne</math> Intensität I<br />
: <math> I = \frac 1 3 (R+G+B)</math><br />
<br />
* die perzeptuelle Antwort unseres Auges auf die Leuchtdichte wird Helligkeit (Lightness) genannt<br />
: <math><br />
L^{\star} = \begin{cases}<br />
116 \cdot \sqrt [3] {\frac Y {Y_n}} -16, & \text{wenn } \frac Y {Y_n} > 0{,}008856\\<br />
903{,}3 \cdot {\frac Y {Y_n}}, & \text{wenn } \frac Y {Y_n} \le 0{,}008856<br />
\end{cases}<br />
</math><br />
<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: Eine Quelle die nur 18% der Luminanz einer Referenz hat, erscheint uns immer noch halb so hell wie die Referenz </span><br />
<br />
== Gammakorrektur und Luma ==<br />
<br />
'''Gammakorrektur:'''<br />
<br />
'''Luma:'''<br />
<br />
== Farbsysteme, Farbräume, reduzierte Farbräume ==<br />
<br />
= Das Normvalenz- oder XYZ-System (GF a 76 - 86) =<br />
<br />
= Farbmessung (GF 1 - 11) =<br />
<br />
* Farbmessung = Ermittlung der drei zu einer Farbvalenz gehörigen Farbmaßzahlen<br />
* 3 Messmethoden: <br />
** Vergleichsmethode oder Gleichheitsverfahren<br />
** Spektralverfahren<br />
** Dreibereichsverfahren<br />
<br />
== Gleichheitsverfahren ==<br />
<br />
* Vergleiche:<br />
** Vorlage mit additivem Gemisch<br />
** Vorlage mit Farbmusterkarten (DIN-Karten)<br />
* unverzichtbar bei physiologischen Untersuchungen<br />
* aufwendig und bei kleinen Probandengruppen ungenau<br />
* d.h. für technische Messungen ohne Bedeutung<br />
<br />
'''Messbedingungen nach DIN:'''<br />
* helladaptiertes und blendfreies Sehen<br />
* unbunter Messraum<br />
* neutrale Gesichtsfeldumgebung mit gleicher oder etwas kleinerer Leuchtdichte als im Messfeld<br />
* gut ausgeruhtes und neutral gestimmtes Auge<br />
* farbnormalsichtiger Beobachter<br />
<br />
== Spektralverfahren ==<br />
<br />
* zu messende Farbvalenz = Summe spektraler Farbvalenzen<br />
* greift auf gemessene Normspektralwertkurven zurück<br />
<br />
# '''spektrale Messung zur Ermittlung der Farbreizfunktion <math>\varphi (\lambda) </math>'''<br />
#* Selbststrahler: direkte Messung der Strahlungsfunktion <math>\rightarrow \varphi (\lambda)= S (\lambda)</math><br />
#* remittierende Vorlage: Remissionsfunktion der Vorlage messen, d.h. Strahlungsfunktion S ist vorher zu bestimmen und aus <math>\varphi (\lambda)</math> heraus zu rechnen <math>\rightarrow \varphi (\lambda)= \beta (\lambda) \cdot S (\lambda)</math><br />
# '''farbvalenzmetrische Auswertung'''<br />
#* wenn <math>\beta (\lambda)</math> ermittelt wurde, kann jede beliebige (tabellierte) Lichtquelle <math>S^{\ast} (\lambda)</math>eingesetzt werden<br />
#: <math><br />
\begin{bmatrix}<br />
X\\Y\\Z<br />
\end{bmatrix}<br />
= k \cdot<br />
\begin{bmatrix}<br />
\int \bar{x} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{y} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{z} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda<br />
\end{bmatrix}<br />
</math><br />
#* Normierungskonstante k:<br />
#** Selbststrahler: nur Farbwertanteile gefragt, d.h. k ist beliebig<br />
#** Körperfarben: Y für mattweißen Körper = 100, d.h. <math>k=\frac{100}{\int {S(\lambda) \cdot \bar{y}(\lambda) d \lambda}}</math><br />
<br />
'''Messgeometrien:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bildergalerie (45°,8°,Transmission) </span><br />
<br />
* ''45°-Geometrie'': Beleuchtung unter 45° schließt Glanzeinfluss aus <math>\rightarrow</math> Sensor blickt senkrecht auf Probe<br />
* ''8°-Geometrie'': Beleuchtung diffus über Ulbricht-Kugel <math>\rightarrow</math> Sensor blickt unter 8° auf Probe; Messung mit/ohne Glanz möglich<br />
* ''Transmissionsgeometrie'': Probe wird durchleuchtet<br />
<br />
== Dreibereichsverfahren ==<br />
[...]<br />
== Spektralmaskenverfahren ==<br />
[...]<br />
<br />
= Klassifikation von Messaufgaben (GF 82 - 86) =<br />
<br />
# Messung von objektiven Eigenschaften, die sich in der Veränderung spektraler Charakteristika niederschlagen<br />
#* vordergründig ist Zusammenhang zwischen Veränderungen in den physikalischen Eigenschaften von Interesse (z.B. Waferinspektion)<br />
#* Zusammenhang sollte eindeutig und von hinreichender Empfindlichkeit sein<br />
#* Wahrnehmung unterschiedlicher Farben eher Nebeneffekt<br />
# Überwachung der Stabilität von farblichen Erscheinungen<br />
#* ist bei einer oder mehreren Beleuchtungen zu überwachen<br />
#* absolute Farbmessung nicht nötig; "Anlernen" auf Farben genügt<br />
#* Abstände im Farbempfinden müssen sich in gleicher Weise in Veränderungen der Sensorsignale wiederspiegeln<br />
# absolute Farbmessung<br />
#* d.h. Ermittlung der korrekten Farbvalenz unter beliebigen Messbedingungen<br />
#* Spektralwertkurven müssen realisiert werden<br />
# Messung des spektralen Remissions- und/oder Transmissionsverhaltens von Materialien<br />
#* ausschließlich spektrale Messverfahren<br />
#* Messung der Strahlungsfunktion und der remittierten Leistungsdichte<br />
#* Berechnung der Farbvalenz bei beliebiger Beleuchtung und des Metamerie-Index<br />
<br />
'''steigende Ansprüche mit steigender Nummerierung'''<br />
<br />
= Einfache Farbkalibrierung (GF 16 - 41) =<br />
<br />
= Color Management (F CM 1 - 20) =<br />
<br />
= Kameras (GF_Ka 1 - 12) =<br />
<br />
'''Einsatzfelder:'''<br />
* ortsaufgelöste Messung von Farbe<br />
* Aufnahme und Wiedergabe von True-Color Bildern<br />
* Aufnahme farbiger oder mehrkanaliger Bilder für die Verarbeitung/Analyse (Qualitätssicherung)<br />
* Photogrammetrische Anwendungen (Lösung des Korrespondenzproblems)<br />
* Radiometrische Anwendungen (Messen im Spektralbereich)<br />
<br />
'''Dreibereichsmessung:'''<br />
* setzt die Trennung von drei sich überlappenden Spektralbereichen voraus, die dann wellenlängenabhängig zu bewerten und zu integrieren sind<br />
<br />
== Dreichip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* optische Kanaltrennung und Bewertung<br />
* beste Bildqualität, da hohe Auflösung in allen drei Kanälen<br />
* keinen örtlichen Versatz der Pixel in den drei Farbauszügen<br />
* Filter einfacher und präziser zu realisieren<br />
* befinden sich z.B. als dichroitische Spiegel auf den Strahteilerprismen<br />
<br />
<span style="color:#ee0000;"> \\ Hot-Mirror-, Cold-Mirror-Korrektur????</span><br />
<br />
== Einchip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: doppelte Anzahl grüner Pixel wegen Schärfe, MTF des Auges </span><br />
<br />
* örtliche Kanaltrennung und Bewertung<br />
* Streifen- oder Mosaikfilterstrukturen auf den einzelnen Pixeln zur örtlichen Signaltrennung<br />
* 3 oder 4 unterschiedliche spektrale Auszuüge zur Erzeugung der Farbinformation<br />
* Matrix selbst kann Interline- oder Frame-Transfer-Matrix sein<br />
* kostengünstiger und kleiner als Dreichip-Kameras<br />
* Probleme:<br />
** Farbvalenzen aus örtlich versetzten Auszügen (z.B. Farbsäume an Kanten)<br />
** nicht korrigierbare Fehler aus Nichtlinearitäten und Dunkelsignalen bei der Bildung von Mischsignalen<br />
<br />
'''generelle Anforderungen an die Signalverarbeitung:'''<br />
<br />
* primäre Kamerasignale stellen keine farbmetrische Schnittstelle zur Verfügung, d.h. alle Bewertungsfunktionen sind nicht-negativ (Spektralwertkurven fordern aber negative Wichtungen)<br />
* je nach realisierten Filtern und Genauigkeitsansprüchen <math>\rightarrow</math> lineare Matrizierung (meist Kameraintern) oder komplexere Approximation<br />
* bei hohen Genauigkeitsansprüchen <math>\rightarrow</math> Umgehung der Kamerainternen Matrizierung, weil Verstärkungsfaktoren, Toleranzen, Temperaturdrift, Langzeitstabilität etc. nicht bekannt sind<br />
* insgesamt geringe Nichtlinearitäten der CCD's können in den Ansteuerbereichen der einzelnen Kanäle zu wesentlichen Fehlern führen:<br />
** Farbvalenz ändert sich kontinuirlich mit der Shutterzeit<br />
** Pixelweise DSNU- (Dunkelsignalungleichförmigkeit) und PRNU- (Hellsignalungleichförmigkeit) Korrektur vor Erzeugung der Farbvalenz erforderlich, da sich Festmusterrauschen nicht nur auf Intensität sondern auch auf Farbart auswirkt<br />
** Dunkelsignal verdoppelt sich alle 7K, Gleichanteil wird aber geklemmt<br />
** Lichtquellentyp und Langzeitverhalten wirken sich nicht nur Intensität sondern auch auf Farbtemperatur aus<br />
<br />
'''4 spektrale Bereiche:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* vorteilhaft zur Erzeugung von Farbdifferenzsignalen für die TV-Kompatibilität<br />
* im Field-Integration-Mode werden Mischsignale gebildet, die die erforderliche Signalkorrektur für hohe Ansprüche behindern<br />
* Nichtlinearität der Ausgangsverstärker wirkt sich auf Korrektur der primären Mischsignale aus<br />
<br />
== Sequentielle Einchip-Kamera ==<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* zeitliche Kanaltrennung und Bewertung<br />
* relativ genaue Approximation der Spektralwertkurven möglich<br />
<br />
== Elektrisch steuerbare Filter ==<br />
<br />
* über die Wellenlängenabhängigkeit der Eindringtiefe der Photonen und die Steuerbarkeit der Tiefe der Potentialmulden der sensoren lassen sich steuerbare spektrale Empfindlichkeiten erzeugen<br />
<br />
= Verarbeitung von Farbbildern (1 - 31) =<br />
<br />
= Referenzfreie Farbadaption auf Basis des 3D-Histogramms (HuS 32 - 39 ) =<br />
<br />
= Histogrammbasiertes Farbmatching(1 - 15) =<br />
<br />
= Störunterdrückung (SU 1 - 16) =<br />
<br />
= Kantendetektion in Farbbildern (1 - 21) =<br />
<br />
= Farbpixelklassifikation (Farbpixelklassifikation 1 - 21) =<br />
<br />
= Clusterverfahren (Farbpixelklassifikation 19 - 45) =<br />
<br />
= Segmentierung (Seg 1 - 8) =<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Grundlagen_der_Farbbildverarbeitung&diff=6972Grundlagen der Farbbildverarbeitung2009-03-12T16:37:28Z<p>DarkGhost: /* Farbanalyse, Zusammenhang mit der Farbwidergabe */</p>
<hr />
<div>Link zum [http://www.zbs-ilmenau.de/intern/vip-toolkit/index.php Vip toolkit]<br />
= Einführung (GF_a 8 - 47) =<br />
<br />
== Geschichtliches zur Farbe ==<br />
<br />
=== Newton ===<br />
<br />
* 1672: New Theory about Light and Colours<br />
** Sonnenlicht = Mischung einzelner Farben<br />
** Spektralfarben sind objektive Eigenschaft des Lichtes<br />
<br />
[...]<br />
<br />
=== Goethe ===<br />
<br />
[...]<br />
<br />
== Begriff der Farbe ==<br />
<br />
* '''Farbe im engeren Sinn, stellt eine spezielle menschliche Sinneswahrnehmung dar'''<br />
* <math>\Phi_i = \int_{\Delta \lambda_i} \varphi_{\lambda} (\lambda) d \lambda</math><br />
* Leistungsdichte <math>\phi (\lambda)</math> stellt dagegen den Farbreiz dar, der die Farbempfindung hervorruft<br />
* Vektoren <math>\underline \Phi</math> sind je nach Dimension mehr oder minder genaue Approximationen des Farbreizes<br />
<br />
* Orientierung am menschlichen visuellen System und die Betrachtung psychologischer und physiologischer Grundlagen sind von Interesse:<br />
** zur richtigen Bewertung der Schwierigkeiten und Herausforderungen bei der Schaffung technischer Lösungen<br />
** zur Anpassung technischer Lösungen der Bildwiedergabe an das visuelle System<br />
** zur Nutzung optimaler Naturprinzipien für technische Lösungen<br />
** weil technische Systeme im allgemeinen auf dem inneren Modell des Menschen von der Welt beruhen und dieses Modell in hohem Maße durch den visuellen Kanal des Menschen beeinflusst ist<br />
** weil optoelektronische Sensoren, Bildverarbeitung und Bildanalyse wichtige Schnittstellen zwischen Mensch und Maschine darstellen<br />
**weil viele Objekteigenschaften durch visuelle Eindrücke beschrieben werden<br />
<br />
* menschliches Auge kann ca. 100 Graustufen / ca. 300 000 Farben unterscheiden<br />
<br />
* Drei grundsätzliche Anwendungen von Farbinformation:<br />
** Pseudokolorierung<br />
** Falschfarbendarstellung<br />
** Echtfarbdarstellung (True Color) <math>\rarr</math> hier Schwerpunkt<br />
<br />
== Farbtäuschung ==<br />
<br />
* Zuordnung zwischen Physik und Wahrnehmung nur eindeutig wenn bunte Dinge isoliert betrachtet werden<br />
* Werden bunte Objekte in bunte Umgebungen eingebettet/bewegt, dann können abweichende Farbwahrnehmungen auftreten, so genannte Farbtäuschungen<br />
* es existieren unterschiedliche Arten solcher Täuschungen:<br />
** ''Farbinduktion oder simultaner Farbkontrast'' (Farbe wird durch ihre Umgebung modifiziert)<br />
** ''Farbkonflikt'' (es konkurrieren verschiedene Sehinformationen miteinander)<br />
** ''Subjektive Farben'' (es werden bunte Farbtöne wahrgenommen, die nicht vorliegen)<br />
<br />
'''Simultaner Farbkontrast:'''<br />
* erstmals 1839 beschrieben<br />
* wo der Effekt entsteht (Auge, Cortex) ist unklar<br />
<br />
'''Farbinduktion:'''<br />
* bei kleinteiligen, sich wiederholenden Strukturen erfolgt Angleichung<br />
* kann zur Rauschunterdrückung oder zur Unterdrückung von Feintexturen zugunsten der Erkennung größerer Objekte wichtig sein<br />
<br />
'''Farbkonflikt:'''<br />
* Formen und Strukturen konkurrieren mit Farben ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf White'sche Illusion])<br />
<br />
'''Subjektive Farben:'''<br />
* durch Bewegung ist es möglich Farben zu erzeugen die ursprünglich nicht vorhanden waren ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf Drehwurm in Farbe])<br />
<br />
== Farbwahrnehmung beim Menschen ==<br />
<br />
[...]<br />
<br />
=== Rezeptive Wahrnehmung ===<br />
* 1807 stellte Young die Hypothese auf das Farbsehen auf drei Arten von Sinneszellen beruht (rout,grün,blau)<br />
* erst 1964 konnten dies bewiesen werden, durch die Messung der Absorptionsspektren<br />
*[[Datei:Pdt-kurven.svg]]<br />
<br />
=== Postrezeptive Wahrnehmung ===<br />
* Mit dem 3 Farbenmodell konnten einige psychologische Erscheinungen nicht erklärt werden<br />
** Es werden 4 Farben als besonderst "rein" empfunden (Rto, Geln,Grün, Blau)<br />
** Unbunte Farben werden werden als das fehlen von Farben wahrgenommen<br />
** Schwarz schein gleichberechtigt zu Weiß<br />
** keine wahrgenommene Farbe erscheint zugleich rötlich und grün<br />
* das führte zur Gegenfarbentheorie die anfangs nur Psychologisch begründet war 1958 aber physiologisch Nachgewiesen werden konnte<br />
** Rot - Grün<br />
** Gelb - Blau<br />
** Schwarz - Weiß<br />
* → CIELab-Farbraum<br />
<br />
=== Kortikale Kodierung ===<br />
* Weder die 3 Farbentheorie noch die Gegenfarbentheorie beschreiben die bewusste Wahrnehmung des Menschen<br />
* Deshalb erweitertes Modell<br />
** Farbton / Buntton beschreibt die als besonderst rein empfundenen Spektralfarben<br />
** Sättigung beschreibt wie stark eine Farbe verblasst ist<br />
** Helligkeit beschreibt, wie hell oder dunkel eine Farbe ist<br />
* Wo/Wie genau die neuronale Verarbeitung erfolgt, ist noch nicht sicher belegt<br />
<br />
== Die Ordnung in der Welt der Farben ==<br />
* Newton kannte die Wellenlänge noch nicht → er ordnete die Farben nach dem Regenbogen<br />
* Goethe verwendete das Gegenfarbenmodell<br />
* Munsell schlug 1905 ein Farbordnungssystem vor bei dem alle Abstände zwischen den Farben Empfindungsmäßig gleich sind<br />
** führt zu einem geometrisch nicht regelmäßigen Körper<br />
<br />
== Das Modell der Farbe ==<br />
* '''Definition'''<br />
** Farbe ist diejenige Gesichtsempfindung eines dem Auge strukturlos erscheinenden Teils eines Gesichtsfeldes durch die sich diser Teil bei einäugiger Betrachtung mit unbewegtem Auge von einem gleichzeitig gesehenen ebenfalls strukturlos angrenzendem Bezirk allein unterscheidet (unbunte Farben: Schwarz, Weiß und Graustufen, bunte Farben: Helligkeit; Buntheit setzt sich aus Buntton und Farbsättigung zusammen)<br />
** Farbe ist durch Helligkeit, Buntton, Sättigung eindeutig bestimmt → 3D Modell<br />
*** drei linear unabhängige Größen<br />
*** Additive Mischung zur Reproduktion von Farbe (aus Rot, Grün, Blau)<br />
*** drei linearunabhängige Größen spannen immer einen Raum auf → Rot,Grün und Blau werden die Achsen dieses Raumes<br />
<br />
=== Farbvalenz ===<br />
* Mit unserem Modell läßt sich jede Farbe als linearkombination unserer drei Basisvektoren aufschreiben<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
** <math> \vec F</math> ... Farbvalenz<br />
** <math> \vec r, \vec g, \vec b </math> ... die drei Basisvektoren die den Raum aufspannen (Rot, Grün und Blau)<br />
** <math> R,G,B, |\vec F| </math> ... die Farbwerte<br />
** <math> \vec r \cdot R, \vec g \cdot G, \vec b \cdot B </math> ... die drei Primärvalenzen<br />
* Ermittelt werden die Farbwerte mit Hilfe der Vergleichsmethode<br />
** Eine Person vergleicht ein Target mit einer Farbe die aus den drei Primärvalenzen gemischt wird<br />
** wenn die Empfindung der beiden Farben gleich ist, dann notieren wir die Werte<br />
* Innere Farbmischung<br />
** das Target wird mit weißen Licht beleuchtet und wir drehen nur an dem Farbmischgerät<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
* Äußere Farbmischung<br />
** Wir beleuchten das Target mit farbigen Lichte<br />
**<math> \vec F+ B \cdot \vec b = R \cdot \vec r + G \cdot \vec g \rightarrow \vec F = R \cdot \vec r + G \cdot \vec g - B \cdot \vec b</math><br />
<br />
=== Farbreizmetrik ===<br />
* Die Farbreizfunktion <math> \varphi_\lambda</math> beschreibt die spektrale Zusammensetzung der Farbempfindungen<br />
*# Selbstleuchtende Objekte<br />
*#* <math> S_\lambda (\lambda)</math> beschreibt die spektrale Verteilung der Quelle<br />
*#* Wahrnehmung: <math> \varphi_\lambda = S_\lambda</math><br />
*# Auflicht Vorlagen<br />
*#* <math>\beta_\lambda(\lambda)</math> beschreibt den spektralen Remisionsgrad der Vorlage<br />
*#* Wahrnehmung: Licht reflektiert von der Vorlage <math> \varphi_\lambda = S_\lambda \cdot \beta_\lambda</math><br />
*# Durchlichtvorlagen<br />
*#* <math>\tau_\lambda(\lambda)</math> spektraler Transmissionsgrad der Vorlage<br />
*#* Wahrnehmung von Licht welches die Vorlage durchdrungen hat <math>\varphi_\lambda= S_\lambda \cdot \tau_\lambda</math><br />
* Damit haben folgende Faktoren Auswirkung auf die Wahrgenommene Farbe<br />
*# Die Beleuchtung des Objektes (Spektrale Zusammensetzung des Lichtes der Lampe)<br />
*# Das Remmisionsverhalten der beleuchteten Oberfläche<br />
*# Die wellenlängenabhängige Empfindlichkeit der drei Zapfen des Auges<br />
* Es besteht die Möglichkeit die pdt Kurven direkt zur Beschreibung des Farbempfindens zu nutzen<br />
* Die Farbwerte könnte man dann wie folgt ermitteln: <math> \left(\begin{matrix}P\\D\\T\end{matrix}\right)=k\int_{380\mathit{nm}}^{780\mathit{nm}}\varphi (\lambda )\cdot \left(\begin{matrix}p(\lambda )\\d(\lambda )\\t(\lambda )\end{matrix}\right)d\lambda </math><br />
* Für die technische Darstellung von Farbe werden allerdings R,G,B werte benötigt<br />
* Die dafür notwendigen Spektralwertkurven können mit Hilfe der Vergleichsmethode ermittelt werden<br />
* Man erhält damit folgende Kurven<br />
[[Datei:SpektralwertfunktionenRGB.jpg]]<br />
* Mit der gleichen Formel wie bei der pdt Kurve lassen sich nun die R,G,B Werte rechnerisch ermitteln<br />
<br />
== Farbanalyse, Zusammenhang mit der Farbwidergabe ==<br />
* Das Kammera - Monitor System soll die Farbe exakt wiedergeben<br />
* Der Monitor verwendet EBU Phosphore für die Farbdarstellung<br />
** haben selbst Spektralwert kurven => keine Monochromatischen Lichter mehr<br />
* Die notwendigen spektralwertkurven die die Kamera realisieren muss um die Bilder auf dem Monitor exakt darzustellen lassen sich mit Hilfe der pdt Kurven herleiten (Über forderung der Gleicheit der Farben)<br />
* Sie besitzen stark negative Anteile => Auch die Filter der Kamera müssten negative Transsmissionsgrade besitzen<br />
** technisch ist das nicht möglich<br />
* es bleibt also nur die Möglichkeit die notwendigen Parameter zur Ansteuerung des Monitors aus positive one-peak Kurven zu berechnen<br />
<br />
== Subtraktive Farbmischung ==<br />
[...]<br />
<br />
= Farbmetrische Schnittstellen - Farbräume (GF a 49 - 55) =<br />
<br />
<pre><br />
Unterschiedliche bildgebende Systeme<br />
z.B. Farbkameras<br />
Farbscanner<br />
Spezialkameras<br />
</pre><br />
'''Widerspruch''' <math>\updownarrow</math> Farbmetrische Schnittstelle<br />
<pre><br />
Unterschiedliche Bildwiedergabesysteme<br />
"True-Color-Darstellung"<br />
- unterschiedliche Monitore, Beamer, Drucker etc.<br />
</pre><br />
<br />
== Leuchtdichte (Luminanz) ==<br />
<br />
* Luminanz Y ist die Strahlungsleistung, bewertet mit der spektralen Empfindlichkeitsfunktion des Auges für das Hellempfinden<br />
* Y ist Leistungsproportional, wenn Lichtzusammensetzung (Leistungsdichte <math>\Theta (\lambda))</math> konstant bleibt<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* Leuchtdichte berechnet sich nach dem ''Abneyschen Gesetz'':<br />
: <math> Y = L = k \cdot \underline L^T \cdot \underline F </math><br />
:* <math>\underline L^T - </math> Leuchtdichtebeiwert: gibt an wie groß der Beitrag jedes Farbwertes der Farbvalenz zum Helleindruck ist, abhängig vom gewählten Farbwiedergabesystem<br />
* Leuchtdichte L <math>\ne</math> Intensität I<br />
: <math> I = \frac 1 3 (R+G+B)</math><br />
<br />
* die perzeptuelle Antwort unseres Auges auf die Leuchtdichte wird Helligkeit (Lightness) genannt<br />
: <math><br />
L^{\star} = \begin{cases}<br />
116 \cdot \sqrt [3] {\frac Y {Y_n}} -16, & \text{wenn } \frac Y {Y_n} > 0{,}008856\\<br />
903{,}3 \cdot {\frac Y {Y_n}}, & \text{wenn } \frac Y {Y_n} \le 0{,}008856<br />
\end{cases}<br />
</math><br />
<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: Eine Quelle die nur 18% der Luminanz einer Referenz hat, erscheint uns immer noch halb so hell wie die Referenz </span><br />
<br />
== Gammakorrektur und Luma ==<br />
<br />
'''Gammakorrektur:'''<br />
<br />
'''Luma:'''<br />
<br />
== Farbsysteme, Farbräume, reduzierte Farbräume ==<br />
<br />
= Das Normvalenz- oder XYZ-System (GF a 76 - 86) =<br />
<br />
= Farbmessung (GF 1 - 11) =<br />
<br />
* Farbmessung = Ermittlung der drei zu einer Farbvalenz gehörigen Farbmaßzahlen<br />
* 3 Messmethoden: <br />
** Vergleichsmethode oder Gleichheitsverfahren<br />
** Spektralverfahren<br />
** Dreibereichsverfahren<br />
<br />
== Gleichheitsverfahren ==<br />
<br />
* Vergleiche:<br />
** Vorlage mit additivem Gemisch<br />
** Vorlage mit Farbmusterkarten (DIN-Karten)<br />
* unverzichtbar bei physiologischen Untersuchungen<br />
* aufwendig und bei kleinen Probandengruppen ungenau<br />
* d.h. für technische Messungen ohne Bedeutung<br />
<br />
'''Messbedingungen nach DIN:'''<br />
* helladaptiertes und blendfreies Sehen<br />
* unbunter Messraum<br />
* neutrale Gesichtsfeldumgebung mit gleicher oder etwas kleinerer Leuchtdichte als im Messfeld<br />
* gut ausgeruhtes und neutral gestimmtes Auge<br />
* farbnormalsichtiger Beobachter<br />
<br />
== Spektralverfahren ==<br />
<br />
* zu messende Farbvalenz = Summe spektraler Farbvalenzen<br />
* greift auf gemessene Normspektralwertkurven zurück<br />
<br />
# '''spektrale Messung zur Ermittlung der Farbreizfunktion <math>\varphi (\lambda) </math>'''<br />
#* Selbststrahler: direkte Messung der Strahlungsfunktion <math>\rightarrow \varphi (\lambda)= S (\lambda)</math><br />
#* remittierende Vorlage: Remissionsfunktion der Vorlage messen, d.h. Strahlungsfunktion S ist vorher zu bestimmen und aus <math>\varphi (\lambda)</math> heraus zu rechnen <math>\rightarrow \varphi (\lambda)= \beta (\lambda) \cdot S (\lambda)</math><br />
# '''farbvalenzmetrische Auswertung'''<br />
#* wenn <math>\beta (\lambda)</math> ermittelt wurde, kann jede beliebige (tabellierte) Lichtquelle <math>S^{\ast} (\lambda)</math>eingesetzt werden<br />
#: <math><br />
\begin{bmatrix}<br />
X\\Y\\Z<br />
\end{bmatrix}<br />
= k \cdot<br />
\begin{bmatrix}<br />
\int \bar{x} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{y} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{z} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda<br />
\end{bmatrix}<br />
</math><br />
#* Normierungskonstante k:<br />
#** Selbststrahler: nur Farbwertanteile gefragt, d.h. k ist beliebig<br />
#** Körperfarben: Y für mattweißen Körper = 100, d.h. <math>k=\frac{100}{\int {S(\lambda) \cdot \bar{y}(\lambda) d \lambda}}</math><br />
<br />
'''Messgeometrien:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bildergalerie (45°,8°,Transmission) </span><br />
<br />
* ''45°-Geometrie'': Beleuchtung unter 45° schließt Glanzeinfluss aus <math>\rightarrow</math> Sensor blickt senkrecht auf Probe<br />
* ''8°-Geometrie'': Beleuchtung diffus über Ulbricht-Kugel <math>\rightarrow</math> Sensor blickt unter 8° auf Probe; Messung mit/ohne Glanz möglich<br />
* ''Transmissionsgeometrie'': Probe wird durchleuchtet<br />
<br />
== Dreibereichsverfahren ==<br />
[...]<br />
== Spektralmaskenverfahren ==<br />
[...]<br />
<br />
= Klassifikation von Messaufgaben (GF 82 - 86) =<br />
<br />
# Messung von objektiven Eigenschaften, die sich in der Veränderung spektraler Charakteristika niederschlagen<br />
#* vordergründig ist Zusammenhang zwischen Veränderungen in den physikalischen Eigenschaften von Interesse (z.B. Waferinspektion)<br />
#* Zusammenhang sollte eindeutig und von hinreichender Empfindlichkeit sein<br />
#* Wahrnehmung unterschiedlicher Farben eher Nebeneffekt<br />
# Überwachung der Stabilität von farblichen Erscheinungen<br />
#* ist bei einer oder mehreren Beleuchtungen zu überwachen<br />
#* absolute Farbmessung nicht nötig; "Anlernen" auf Farben genügt<br />
#* Abstände im Farbempfinden müssen sich in gleicher Weise in Veränderungen der Sensorsignale wiederspiegeln<br />
# absolute Farbmessung<br />
#* d.h. Ermittlung der korrekten Farbvalenz unter beliebigen Messbedingungen<br />
#* Spektralwertkurven müssen realisiert werden<br />
# Messung des spektralen Remissions- und/oder Transmissionsverhaltens von Materialien<br />
#* ausschließlich spektrale Messverfahren<br />
#* Messung der Strahlungsfunktion und der remittierten Leistungsdichte<br />
#* Berechnung der Farbvalenz bei beliebiger Beleuchtung und des Metamerie-Index<br />
<br />
'''steigende Ansprüche mit steigender Nummerierung'''<br />
<br />
= Einfache Farbkalibrierung (GF 16 - 41) =<br />
<br />
= Color Management (F CM 1 - 20) =<br />
<br />
= Kameras (GF_Ka 1 - 12) =<br />
<br />
'''Einsatzfelder:'''<br />
* ortsaufgelöste Messung von Farbe<br />
* Aufnahme und Wiedergabe von True-Color Bildern<br />
* Aufnahme farbiger oder mehrkanaliger Bilder für die Verarbeitung/Analyse (Qualitätssicherung)<br />
* Photogrammetrische Anwendungen (Lösung des Korrespondenzproblems)<br />
* Radiometrische Anwendungen (Messen im Spektralbereich)<br />
<br />
'''Dreibereichsmessung:'''<br />
* setzt die Trennung von drei sich überlappenden Spektralbereichen voraus, die dann wellenlängenabhängig zu bewerten und zu integrieren sind<br />
<br />
== Dreichip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* optische Kanaltrennung und Bewertung<br />
* beste Bildqualität, da hohe Auflösung in allen drei Kanälen<br />
* keinen örtlichen Versatz der Pixel in den drei Farbauszügen<br />
* Filter einfacher und präziser zu realisieren<br />
* befinden sich z.B. als dichroitische Spiegel auf den Strahteilerprismen<br />
<br />
<span style="color:#ee0000;"> \\ Hot-Mirror-, Cold-Mirror-Korrektur????</span><br />
<br />
== Einchip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: doppelte Anzahl grüner Pixel wegen Schärfe, MTF des Auges </span><br />
<br />
* örtliche Kanaltrennung und Bewertung<br />
* Streifen- oder Mosaikfilterstrukturen auf den einzelnen Pixeln zur örtlichen Signaltrennung<br />
* 3 oder 4 unterschiedliche spektrale Auszuüge zur Erzeugung der Farbinformation<br />
* Matrix selbst kann Interline- oder Frame-Transfer-Matrix sein<br />
* kostengünstiger und kleiner als Dreichip-Kameras<br />
* Probleme:<br />
** Farbvalenzen aus örtlich versetzten Auszügen (z.B. Farbsäume an Kanten)<br />
** nicht korrigierbare Fehler aus Nichtlinearitäten und Dunkelsignalen bei der Bildung von Mischsignalen<br />
<br />
'''generelle Anforderungen an die Signalverarbeitung:'''<br />
<br />
* primäre Kamerasignale stellen keine farbmetrische Schnittstelle zur Verfügung, d.h. alle Bewertungsfunktionen sind nicht-negativ (Spektralwertkurven fordern aber negative Wichtungen)<br />
* je nach realisierten Filtern und Genauigkeitsansprüchen <math>\rightarrow</math> lineare Matrizierung (meist Kameraintern) oder komplexere Approximation<br />
* bei hohen Genauigkeitsansprüchen <math>\rightarrow</math> Umgehung der Kamerainternen Matrizierung, weil Verstärkungsfaktoren, Toleranzen, Temperaturdrift, Langzeitstabilität etc. nicht bekannt sind<br />
* insgesamt geringe Nichtlinearitäten der CCD's können in den Ansteuerbereichen der einzelnen Kanäle zu wesentlichen Fehlern führen:<br />
** Farbvalenz ändert sich kontinuirlich mit der Shutterzeit<br />
** Pixelweise DSNU- (Dunkelsignalungleichförmigkeit) und PRNU- (Hellsignalungleichförmigkeit) Korrektur vor Erzeugung der Farbvalenz erforderlich, da sich Festmusterrauschen nicht nur auf Intensität sondern auch auf Farbart auswirkt<br />
** Dunkelsignal verdoppelt sich alle 7K, Gleichanteil wird aber geklemmt<br />
** Lichtquellentyp und Langzeitverhalten wirken sich nicht nur Intensität sondern auch auf Farbtemperatur aus<br />
<br />
'''4 spektrale Bereiche:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* vorteilhaft zur Erzeugung von Farbdifferenzsignalen für die TV-Kompatibilität<br />
* im Field-Integration-Mode werden Mischsignale gebildet, die die erforderliche Signalkorrektur für hohe Ansprüche behindern<br />
* Nichtlinearität der Ausgangsverstärker wirkt sich auf Korrektur der primären Mischsignale aus<br />
<br />
== Sequentielle Einchip-Kamera ==<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* zeitliche Kanaltrennung und Bewertung<br />
* relativ genaue Approximation der Spektralwertkurven möglich<br />
<br />
== Elektrisch steuerbare Filter ==<br />
<br />
* über die Wellenlängenabhängigkeit der Eindringtiefe der Photonen und die Steuerbarkeit der Tiefe der Potentialmulden der sensoren lassen sich steuerbare spektrale Empfindlichkeiten erzeugen<br />
<br />
= Verarbeitung von Farbbildern (1 - 31) =<br />
<br />
= Referenzfreie Farbadaption auf Basis des 3D-Histogramms (HuS 32 - 39 ) =<br />
<br />
= Histogrammbasiertes Farbmatching(1 - 15) =<br />
<br />
= Störunterdrückung (SU 1 - 16) =<br />
<br />
= Kantendetektion in Farbbildern (1 - 21) =<br />
<br />
= Farbpixelklassifikation (Farbpixelklassifikation 1 - 21) =<br />
<br />
= Clusterverfahren (Farbpixelklassifikation 19 - 45) =<br />
<br />
= Segmentierung (Seg 1 - 8) =<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Grundlagen_der_Farbbildverarbeitung&diff=6971Grundlagen der Farbbildverarbeitung2009-03-12T15:43:36Z<p>DarkGhost: /* Farbreizmetrik */</p>
<hr />
<div>Link zum [http://www.zbs-ilmenau.de/intern/vip-toolkit/index.php Vip toolkit]<br />
= Einführung (GF_a 8 - 47) =<br />
<br />
== Geschichtliches zur Farbe ==<br />
<br />
=== Newton ===<br />
<br />
* 1672: New Theory about Light and Colours<br />
** Sonnenlicht = Mischung einzelner Farben<br />
** Spektralfarben sind objektive Eigenschaft des Lichtes<br />
<br />
[...]<br />
<br />
=== Goethe ===<br />
<br />
[...]<br />
<br />
== Begriff der Farbe ==<br />
<br />
* '''Farbe im engeren Sinn, stellt eine spezielle menschliche Sinneswahrnehmung dar'''<br />
* <math>\Phi_i = \int_{\Delta \lambda_i} \varphi_{\lambda} (\lambda) d \lambda</math><br />
* Leistungsdichte <math>\phi (\lambda)</math> stellt dagegen den Farbreiz dar, der die Farbempfindung hervorruft<br />
* Vektoren <math>\underline \Phi</math> sind je nach Dimension mehr oder minder genaue Approximationen des Farbreizes<br />
<br />
* Orientierung am menschlichen visuellen System und die Betrachtung psychologischer und physiologischer Grundlagen sind von Interesse:<br />
** zur richtigen Bewertung der Schwierigkeiten und Herausforderungen bei der Schaffung technischer Lösungen<br />
** zur Anpassung technischer Lösungen der Bildwiedergabe an das visuelle System<br />
** zur Nutzung optimaler Naturprinzipien für technische Lösungen<br />
** weil technische Systeme im allgemeinen auf dem inneren Modell des Menschen von der Welt beruhen und dieses Modell in hohem Maße durch den visuellen Kanal des Menschen beeinflusst ist<br />
** weil optoelektronische Sensoren, Bildverarbeitung und Bildanalyse wichtige Schnittstellen zwischen Mensch und Maschine darstellen<br />
**weil viele Objekteigenschaften durch visuelle Eindrücke beschrieben werden<br />
<br />
* menschliches Auge kann ca. 100 Graustufen / ca. 300 000 Farben unterscheiden<br />
<br />
* Drei grundsätzliche Anwendungen von Farbinformation:<br />
** Pseudokolorierung<br />
** Falschfarbendarstellung<br />
** Echtfarbdarstellung (True Color) <math>\rarr</math> hier Schwerpunkt<br />
<br />
== Farbtäuschung ==<br />
<br />
* Zuordnung zwischen Physik und Wahrnehmung nur eindeutig wenn bunte Dinge isoliert betrachtet werden<br />
* Werden bunte Objekte in bunte Umgebungen eingebettet/bewegt, dann können abweichende Farbwahrnehmungen auftreten, so genannte Farbtäuschungen<br />
* es existieren unterschiedliche Arten solcher Täuschungen:<br />
** ''Farbinduktion oder simultaner Farbkontrast'' (Farbe wird durch ihre Umgebung modifiziert)<br />
** ''Farbkonflikt'' (es konkurrieren verschiedene Sehinformationen miteinander)<br />
** ''Subjektive Farben'' (es werden bunte Farbtöne wahrgenommen, die nicht vorliegen)<br />
<br />
'''Simultaner Farbkontrast:'''<br />
* erstmals 1839 beschrieben<br />
* wo der Effekt entsteht (Auge, Cortex) ist unklar<br />
<br />
'''Farbinduktion:'''<br />
* bei kleinteiligen, sich wiederholenden Strukturen erfolgt Angleichung<br />
* kann zur Rauschunterdrückung oder zur Unterdrückung von Feintexturen zugunsten der Erkennung größerer Objekte wichtig sein<br />
<br />
'''Farbkonflikt:'''<br />
* Formen und Strukturen konkurrieren mit Farben ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf White'sche Illusion])<br />
<br />
'''Subjektive Farben:'''<br />
* durch Bewegung ist es möglich Farben zu erzeugen die ursprünglich nicht vorhanden waren ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf Drehwurm in Farbe])<br />
<br />
== Farbwahrnehmung beim Menschen ==<br />
<br />
[...]<br />
<br />
=== Rezeptive Wahrnehmung ===<br />
* 1807 stellte Young die Hypothese auf das Farbsehen auf drei Arten von Sinneszellen beruht (rout,grün,blau)<br />
* erst 1964 konnten dies bewiesen werden, durch die Messung der Absorptionsspektren<br />
*[[Datei:Pdt-kurven.svg]]<br />
<br />
=== Postrezeptive Wahrnehmung ===<br />
* Mit dem 3 Farbenmodell konnten einige psychologische Erscheinungen nicht erklärt werden<br />
** Es werden 4 Farben als besonderst "rein" empfunden (Rto, Geln,Grün, Blau)<br />
** Unbunte Farben werden werden als das fehlen von Farben wahrgenommen<br />
** Schwarz schein gleichberechtigt zu Weiß<br />
** keine wahrgenommene Farbe erscheint zugleich rötlich und grün<br />
* das führte zur Gegenfarbentheorie die anfangs nur Psychologisch begründet war 1958 aber physiologisch Nachgewiesen werden konnte<br />
** Rot - Grün<br />
** Gelb - Blau<br />
** Schwarz - Weiß<br />
* → CIELab-Farbraum<br />
<br />
=== Kortikale Kodierung ===<br />
* Weder die 3 Farbentheorie noch die Gegenfarbentheorie beschreiben die bewusste Wahrnehmung des Menschen<br />
* Deshalb erweitertes Modell<br />
** Farbton / Buntton beschreibt die als besonderst rein empfundenen Spektralfarben<br />
** Sättigung beschreibt wie stark eine Farbe verblasst ist<br />
** Helligkeit beschreibt, wie hell oder dunkel eine Farbe ist<br />
* Wo/Wie genau die neuronale Verarbeitung erfolgt, ist noch nicht sicher belegt<br />
<br />
== Die Ordnung in der Welt der Farben ==<br />
* Newton kannte die Wellenlänge noch nicht → er ordnete die Farben nach dem Regenbogen<br />
* Goethe verwendete das Gegenfarbenmodell<br />
* Munsell schlug 1905 ein Farbordnungssystem vor bei dem alle Abstände zwischen den Farben Empfindungsmäßig gleich sind<br />
** führt zu einem geometrisch nicht regelmäßigen Körper<br />
<br />
== Das Modell der Farbe ==<br />
* '''Definition'''<br />
** Farbe ist diejenige Gesichtsempfindung eines dem Auge strukturlos erscheinenden Teils eines Gesichtsfeldes durch die sich diser Teil bei einäugiger Betrachtung mit unbewegtem Auge von einem gleichzeitig gesehenen ebenfalls strukturlos angrenzendem Bezirk allein unterscheidet (unbunte Farben: Schwarz, Weiß und Graustufen, bunte Farben: Helligkeit; Buntheit setzt sich aus Buntton und Farbsättigung zusammen)<br />
** Farbe ist durch Helligkeit, Buntton, Sättigung eindeutig bestimmt → 3D Modell<br />
*** drei linear unabhängige Größen<br />
*** Additive Mischung zur Reproduktion von Farbe (aus Rot, Grün, Blau)<br />
*** drei linearunabhängige Größen spannen immer einen Raum auf → Rot,Grün und Blau werden die Achsen dieses Raumes<br />
<br />
=== Farbvalenz ===<br />
* Mit unserem Modell läßt sich jede Farbe als linearkombination unserer drei Basisvektoren aufschreiben<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
** <math> \vec F</math> ... Farbvalenz<br />
** <math> \vec r, \vec g, \vec b </math> ... die drei Basisvektoren die den Raum aufspannen (Rot, Grün und Blau)<br />
** <math> R,G,B, |\vec F| </math> ... die Farbwerte<br />
** <math> \vec r \cdot R, \vec g \cdot G, \vec b \cdot B </math> ... die drei Primärvalenzen<br />
* Ermittelt werden die Farbwerte mit Hilfe der Vergleichsmethode<br />
** Eine Person vergleicht ein Target mit einer Farbe die aus den drei Primärvalenzen gemischt wird<br />
** wenn die Empfindung der beiden Farben gleich ist, dann notieren wir die Werte<br />
* Innere Farbmischung<br />
** das Target wird mit weißen Licht beleuchtet und wir drehen nur an dem Farbmischgerät<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
* Äußere Farbmischung<br />
** Wir beleuchten das Target mit farbigen Lichte<br />
**<math> \vec F+ B \cdot \vec b = R \cdot \vec r + G \cdot \vec g \rightarrow \vec F = R \cdot \vec r + G \cdot \vec g - B \cdot \vec b</math><br />
<br />
=== Farbreizmetrik ===<br />
* Die Farbreizfunktion <math> \varphi_\lambda</math> beschreibt die spektrale Zusammensetzung der Farbempfindungen<br />
*# Selbstleuchtende Objekte<br />
*#* <math> S_\lambda (\lambda)</math> beschreibt die spektrale Verteilung der Quelle<br />
*#* Wahrnehmung: <math> \varphi_\lambda = S_\lambda</math><br />
*# Auflicht Vorlagen<br />
*#* <math>\beta_\lambda(\lambda)</math> beschreibt den spektralen Remisionsgrad der Vorlage<br />
*#* Wahrnehmung: Licht reflektiert von der Vorlage <math> \varphi_\lambda = S_\lambda \cdot \beta_\lambda</math><br />
*# Durchlichtvorlagen<br />
*#* <math>\tau_\lambda(\lambda)</math> spektraler Transmissionsgrad der Vorlage<br />
*#* Wahrnehmung von Licht welches die Vorlage durchdrungen hat <math>\varphi_\lambda= S_\lambda \cdot \tau_\lambda</math><br />
* Damit haben folgende Faktoren Auswirkung auf die Wahrgenommene Farbe<br />
*# Die Beleuchtung des Objektes (Spektrale Zusammensetzung des Lichtes der Lampe)<br />
*# Das Remmisionsverhalten der beleuchteten Oberfläche<br />
*# Die wellenlängenabhängige Empfindlichkeit der drei Zapfen des Auges<br />
* Es besteht die Möglichkeit die pdt Kurven direkt zur Beschreibung des Farbempfindens zu nutzen<br />
* Die Farbwerte könnte man dann wie folgt ermitteln: <math> \left(\begin{matrix}P\\D\\T\end{matrix}\right)=k\int_{380\mathit{nm}}^{780\mathit{nm}}\varphi (\lambda )\cdot \left(\begin{matrix}p(\lambda )\\d(\lambda )\\t(\lambda )\end{matrix}\right)d\lambda </math><br />
* Für die technische Darstellung von Farbe werden allerdings R,G,B werte benötigt<br />
* Die dafür notwendigen Spektralwertkurven können mit Hilfe der Vergleichsmethode ermittelt werden<br />
* Man erhält damit folgende Kurven<br />
[[Datei:SpektralwertfunktionenRGB.jpg]]<br />
* Mit der gleichen Formel wie bei der pdt Kurve lassen sich nun die R,G,B Werte rechnerisch ermitteln<br />
<br />
== Farbanalyse, Zusammenhang mit der Farbwidergabe ==<br />
[...]<br />
<br />
== Subtraktive Farbmischung ==<br />
[...]<br />
<br />
= Farbmetrische Schnittstellen - Farbräume (GF a 49 - 55) =<br />
<br />
<pre><br />
Unterschiedliche bildgebende Systeme<br />
z.B. Farbkameras<br />
Farbscanner<br />
Spezialkameras<br />
</pre><br />
'''Widerspruch''' <math>\updownarrow</math> Farbmetrische Schnittstelle<br />
<pre><br />
Unterschiedliche Bildwiedergabesysteme<br />
"True-Color-Darstellung"<br />
- unterschiedliche Monitore, Beamer, Drucker etc.<br />
</pre><br />
<br />
== Leuchtdichte (Luminanz) ==<br />
<br />
* Luminanz Y ist die Strahlungsleistung, bewertet mit der spektralen Empfindlichkeitsfunktion des Auges für das Hellempfinden<br />
* Y ist Leistungsproportional, wenn Lichtzusammensetzung (Leistungsdichte <math>\Theta (\lambda))</math> konstant bleibt<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* Leuchtdichte berechnet sich nach dem ''Abneyschen Gesetz'':<br />
: <math> Y = L = k \cdot \underline L^T \cdot \underline F </math><br />
:* <math>\underline L^T - </math> Leuchtdichtebeiwert: gibt an wie groß der Beitrag jedes Farbwertes der Farbvalenz zum Helleindruck ist, abhängig vom gewählten Farbwiedergabesystem<br />
* Leuchtdichte L <math>\ne</math> Intensität I<br />
: <math> I = \frac 1 3 (R+G+B)</math><br />
<br />
* die perzeptuelle Antwort unseres Auges auf die Leuchtdichte wird Helligkeit (Lightness) genannt<br />
: <math><br />
L^{\star} = \begin{cases}<br />
116 \cdot \sqrt [3] {\frac Y {Y_n}} -16, & \text{wenn } \frac Y {Y_n} > 0{,}008856\\<br />
903{,}3 \cdot {\frac Y {Y_n}}, & \text{wenn } \frac Y {Y_n} \le 0{,}008856<br />
\end{cases}<br />
</math><br />
<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: Eine Quelle die nur 18% der Luminanz einer Referenz hat, erscheint uns immer noch halb so hell wie die Referenz </span><br />
<br />
== Gammakorrektur und Luma ==<br />
<br />
'''Gammakorrektur:'''<br />
<br />
'''Luma:'''<br />
<br />
== Farbsysteme, Farbräume, reduzierte Farbräume ==<br />
<br />
= Das Normvalenz- oder XYZ-System (GF a 76 - 86) =<br />
<br />
= Farbmessung (GF 1 - 11) =<br />
<br />
* Farbmessung = Ermittlung der drei zu einer Farbvalenz gehörigen Farbmaßzahlen<br />
* 3 Messmethoden: <br />
** Vergleichsmethode oder Gleichheitsverfahren<br />
** Spektralverfahren<br />
** Dreibereichsverfahren<br />
<br />
== Gleichheitsverfahren ==<br />
<br />
* Vergleiche:<br />
** Vorlage mit additivem Gemisch<br />
** Vorlage mit Farbmusterkarten (DIN-Karten)<br />
* unverzichtbar bei physiologischen Untersuchungen<br />
* aufwendig und bei kleinen Probandengruppen ungenau<br />
* d.h. für technische Messungen ohne Bedeutung<br />
<br />
'''Messbedingungen nach DIN:'''<br />
* helladaptiertes und blendfreies Sehen<br />
* unbunter Messraum<br />
* neutrale Gesichtsfeldumgebung mit gleicher oder etwas kleinerer Leuchtdichte als im Messfeld<br />
* gut ausgeruhtes und neutral gestimmtes Auge<br />
* farbnormalsichtiger Beobachter<br />
<br />
== Spektralverfahren ==<br />
<br />
* zu messende Farbvalenz = Summe spektraler Farbvalenzen<br />
* greift auf gemessene Normspektralwertkurven zurück<br />
<br />
# '''spektrale Messung zur Ermittlung der Farbreizfunktion <math>\varphi (\lambda) </math>'''<br />
#* Selbststrahler: direkte Messung der Strahlungsfunktion <math>\rightarrow \varphi (\lambda)= S (\lambda)</math><br />
#* remittierende Vorlage: Remissionsfunktion der Vorlage messen, d.h. Strahlungsfunktion S ist vorher zu bestimmen und aus <math>\varphi (\lambda)</math> heraus zu rechnen <math>\rightarrow \varphi (\lambda)= \beta (\lambda) \cdot S (\lambda)</math><br />
# '''farbvalenzmetrische Auswertung'''<br />
#* wenn <math>\beta (\lambda)</math> ermittelt wurde, kann jede beliebige (tabellierte) Lichtquelle <math>S^{\ast} (\lambda)</math>eingesetzt werden<br />
#: <math><br />
\begin{bmatrix}<br />
X\\Y\\Z<br />
\end{bmatrix}<br />
= k \cdot<br />
\begin{bmatrix}<br />
\int \bar{x} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{y} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{z} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda<br />
\end{bmatrix}<br />
</math><br />
#* Normierungskonstante k:<br />
#** Selbststrahler: nur Farbwertanteile gefragt, d.h. k ist beliebig<br />
#** Körperfarben: Y für mattweißen Körper = 100, d.h. <math>k=\frac{100}{\int {S(\lambda) \cdot \bar{y}(\lambda) d \lambda}}</math><br />
<br />
'''Messgeometrien:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bildergalerie (45°,8°,Transmission) </span><br />
<br />
* ''45°-Geometrie'': Beleuchtung unter 45° schließt Glanzeinfluss aus <math>\rightarrow</math> Sensor blickt senkrecht auf Probe<br />
* ''8°-Geometrie'': Beleuchtung diffus über Ulbricht-Kugel <math>\rightarrow</math> Sensor blickt unter 8° auf Probe; Messung mit/ohne Glanz möglich<br />
* ''Transmissionsgeometrie'': Probe wird durchleuchtet<br />
<br />
== Dreibereichsverfahren ==<br />
[...]<br />
== Spektralmaskenverfahren ==<br />
[...]<br />
<br />
= Klassifikation von Messaufgaben (GF 82 - 86) =<br />
<br />
# Messung von objektiven Eigenschaften, die sich in der Veränderung spektraler Charakteristika niederschlagen<br />
#* vordergründig ist Zusammenhang zwischen Veränderungen in den physikalischen Eigenschaften von Interesse (z.B. Waferinspektion)<br />
#* Zusammenhang sollte eindeutig und von hinreichender Empfindlichkeit sein<br />
#* Wahrnehmung unterschiedlicher Farben eher Nebeneffekt<br />
# Überwachung der Stabilität von farblichen Erscheinungen<br />
#* ist bei einer oder mehreren Beleuchtungen zu überwachen<br />
#* absolute Farbmessung nicht nötig; "Anlernen" auf Farben genügt<br />
#* Abstände im Farbempfinden müssen sich in gleicher Weise in Veränderungen der Sensorsignale wiederspiegeln<br />
# absolute Farbmessung<br />
#* d.h. Ermittlung der korrekten Farbvalenz unter beliebigen Messbedingungen<br />
#* Spektralwertkurven müssen realisiert werden<br />
# Messung des spektralen Remissions- und/oder Transmissionsverhaltens von Materialien<br />
#* ausschließlich spektrale Messverfahren<br />
#* Messung der Strahlungsfunktion und der remittierten Leistungsdichte<br />
#* Berechnung der Farbvalenz bei beliebiger Beleuchtung und des Metamerie-Index<br />
<br />
'''steigende Ansprüche mit steigender Nummerierung'''<br />
<br />
= Einfache Farbkalibrierung (GF 16 - 41) =<br />
<br />
= Color Management (F CM 1 - 20) =<br />
<br />
= Kameras (GF_Ka 1 - 12) =<br />
<br />
'''Einsatzfelder:'''<br />
* ortsaufgelöste Messung von Farbe<br />
* Aufnahme und Wiedergabe von True-Color Bildern<br />
* Aufnahme farbiger oder mehrkanaliger Bilder für die Verarbeitung/Analyse (Qualitätssicherung)<br />
* Photogrammetrische Anwendungen (Lösung des Korrespondenzproblems)<br />
* Radiometrische Anwendungen (Messen im Spektralbereich)<br />
<br />
'''Dreibereichsmessung:'''<br />
* setzt die Trennung von drei sich überlappenden Spektralbereichen voraus, die dann wellenlängenabhängig zu bewerten und zu integrieren sind<br />
<br />
== Dreichip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* optische Kanaltrennung und Bewertung<br />
* beste Bildqualität, da hohe Auflösung in allen drei Kanälen<br />
* keinen örtlichen Versatz der Pixel in den drei Farbauszügen<br />
* Filter einfacher und präziser zu realisieren<br />
* befinden sich z.B. als dichroitische Spiegel auf den Strahteilerprismen<br />
<br />
<span style="color:#ee0000;"> \\ Hot-Mirror-, Cold-Mirror-Korrektur????</span><br />
<br />
== Einchip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: doppelte Anzahl grüner Pixel wegen Schärfe, MTF des Auges </span><br />
<br />
* örtliche Kanaltrennung und Bewertung<br />
* Streifen- oder Mosaikfilterstrukturen auf den einzelnen Pixeln zur örtlichen Signaltrennung<br />
* 3 oder 4 unterschiedliche spektrale Auszuüge zur Erzeugung der Farbinformation<br />
* Matrix selbst kann Interline- oder Frame-Transfer-Matrix sein<br />
* kostengünstiger und kleiner als Dreichip-Kameras<br />
* Probleme:<br />
** Farbvalenzen aus örtlich versetzten Auszügen (z.B. Farbsäume an Kanten)<br />
** nicht korrigierbare Fehler aus Nichtlinearitäten und Dunkelsignalen bei der Bildung von Mischsignalen<br />
<br />
'''generelle Anforderungen an die Signalverarbeitung:'''<br />
<br />
* primäre Kamerasignale stellen keine farbmetrische Schnittstelle zur Verfügung, d.h. alle Bewertungsfunktionen sind nicht-negativ (Spektralwertkurven fordern aber negative Wichtungen)<br />
* je nach realisierten Filtern und Genauigkeitsansprüchen <math>\rightarrow</math> lineare Matrizierung (meist Kameraintern) oder komplexere Approximation<br />
* bei hohen Genauigkeitsansprüchen <math>\rightarrow</math> Umgehung der Kamerainternen Matrizierung, weil Verstärkungsfaktoren, Toleranzen, Temperaturdrift, Langzeitstabilität etc. nicht bekannt sind<br />
* insgesamt geringe Nichtlinearitäten der CCD's können in den Ansteuerbereichen der einzelnen Kanäle zu wesentlichen Fehlern führen:<br />
** Farbvalenz ändert sich kontinuirlich mit der Shutterzeit<br />
** Pixelweise DSNU- (Dunkelsignalungleichförmigkeit) und PRNU- (Hellsignalungleichförmigkeit) Korrektur vor Erzeugung der Farbvalenz erforderlich, da sich Festmusterrauschen nicht nur auf Intensität sondern auch auf Farbart auswirkt<br />
** Dunkelsignal verdoppelt sich alle 7K, Gleichanteil wird aber geklemmt<br />
** Lichtquellentyp und Langzeitverhalten wirken sich nicht nur Intensität sondern auch auf Farbtemperatur aus<br />
<br />
'''4 spektrale Bereiche:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* vorteilhaft zur Erzeugung von Farbdifferenzsignalen für die TV-Kompatibilität<br />
* im Field-Integration-Mode werden Mischsignale gebildet, die die erforderliche Signalkorrektur für hohe Ansprüche behindern<br />
* Nichtlinearität der Ausgangsverstärker wirkt sich auf Korrektur der primären Mischsignale aus<br />
<br />
== Sequentielle Einchip-Kamera ==<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* zeitliche Kanaltrennung und Bewertung<br />
* relativ genaue Approximation der Spektralwertkurven möglich<br />
<br />
== Elektrisch steuerbare Filter ==<br />
<br />
* über die Wellenlängenabhängigkeit der Eindringtiefe der Photonen und die Steuerbarkeit der Tiefe der Potentialmulden der sensoren lassen sich steuerbare spektrale Empfindlichkeiten erzeugen<br />
<br />
= Verarbeitung von Farbbildern (1 - 31) =<br />
<br />
= Referenzfreie Farbadaption auf Basis des 3D-Histogramms (HuS 32 - 39 ) =<br />
<br />
= Histogrammbasiertes Farbmatching(1 - 15) =<br />
<br />
= Störunterdrückung (SU 1 - 16) =<br />
<br />
= Kantendetektion in Farbbildern (1 - 21) =<br />
<br />
= Farbpixelklassifikation (Farbpixelklassifikation 1 - 21) =<br />
<br />
= Clusterverfahren (Farbpixelklassifikation 19 - 45) =<br />
<br />
= Segmentierung (Seg 1 - 8) =<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Datei:SpektralwertfunktionenRGB.jpg&diff=6970Datei:SpektralwertfunktionenRGB.jpg2009-03-12T15:36:43Z<p>DarkGhost: RGB-CIE Spektralwert Kurven</p>
<hr />
<div>RGB-CIE Spektralwert Kurven</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Grundlagen_der_Farbbildverarbeitung&diff=6969Grundlagen der Farbbildverarbeitung2009-03-12T14:19:44Z<p>DarkGhost: /* Das Modell der Farbe */</p>
<hr />
<div>Link zum [http://www.zbs-ilmenau.de/intern/vip-toolkit/index.php Vip toolkit]<br />
= Einführung (GF_a 8 - 47) =<br />
<br />
== Geschichtliches zur Farbe ==<br />
<br />
=== Newton ===<br />
<br />
* 1672: New Theory about Light and Colours<br />
** Sonnenlicht = Mischung einzelner Farben<br />
** Spektralfarben sind objektive Eigenschaft des Lichtes<br />
<br />
[...]<br />
<br />
=== Goethe ===<br />
<br />
[...]<br />
<br />
== Begriff der Farbe ==<br />
<br />
* '''Farbe im engeren Sinn, stellt eine spezielle menschliche Sinneswahrnehmung dar'''<br />
* <math>\Phi_i = \int_{\Delta \lambda_i} \varphi_{\lambda} (\lambda) d \lambda</math><br />
* Leistungsdichte <math>\phi (\lambda)</math> stellt dagegen den Farbreiz dar, der die Farbempfindung hervorruft<br />
* Vektoren <math>\underline \Phi</math> sind je nach Dimension mehr oder minder genaue Approximationen des Farbreizes<br />
<br />
* Orientierung am menschlichen visuellen System und die Betrachtung psychologischer und physiologischer Grundlagen sind von Interesse:<br />
** zur richtigen Bewertung der Schwierigkeiten und Herausforderungen bei der Schaffung technischer Lösungen<br />
** zur Anpassung technischer Lösungen der Bildwiedergabe an das visuelle System<br />
** zur Nutzung optimaler Naturprinzipien für technische Lösungen<br />
** weil technische Systeme im allgemeinen auf dem inneren Modell des Menschen von der Welt beruhen und dieses Modell in hohem Maße durch den visuellen Kanal des Menschen beeinflusst ist<br />
** weil optoelektronische Sensoren, Bildverarbeitung und Bildanalyse wichtige Schnittstellen zwischen Mensch und Maschine darstellen<br />
**weil viele Objekteigenschaften durch visuelle Eindrücke beschrieben werden<br />
<br />
* menschliches Auge kann ca. 100 Graustufen / ca. 300 000 Farben unterscheiden<br />
<br />
* Drei grundsätzliche Anwendungen von Farbinformation:<br />
** Pseudokolorierung<br />
** Falschfarbendarstellung<br />
** Echtfarbdarstellung (True Color) <math>\rarr</math> hier Schwerpunkt<br />
<br />
== Farbtäuschung ==<br />
<br />
* Zuordnung zwischen Physik und Wahrnehmung nur eindeutig wenn bunte Dinge isoliert betrachtet werden<br />
* Werden bunte Objekte in bunte Umgebungen eingebettet/bewegt, dann können abweichende Farbwahrnehmungen auftreten, so genannte Farbtäuschungen<br />
* es existieren unterschiedliche Arten solcher Täuschungen:<br />
** ''Farbinduktion oder simultaner Farbkontrast'' (Farbe wird durch ihre Umgebung modifiziert)<br />
** ''Farbkonflikt'' (es konkurrieren verschiedene Sehinformationen miteinander)<br />
** ''Subjektive Farben'' (es werden bunte Farbtöne wahrgenommen, die nicht vorliegen)<br />
<br />
'''Simultaner Farbkontrast:'''<br />
* erstmals 1839 beschrieben<br />
* wo der Effekt entsteht (Auge, Cortex) ist unklar<br />
<br />
'''Farbinduktion:'''<br />
* bei kleinteiligen, sich wiederholenden Strukturen erfolgt Angleichung<br />
* kann zur Rauschunterdrückung oder zur Unterdrückung von Feintexturen zugunsten der Erkennung größerer Objekte wichtig sein<br />
<br />
'''Farbkonflikt:'''<br />
* Formen und Strukturen konkurrieren mit Farben ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf White'sche Illusion])<br />
<br />
'''Subjektive Farben:'''<br />
* durch Bewegung ist es möglich Farben zu erzeugen die ursprünglich nicht vorhanden waren ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf Drehwurm in Farbe])<br />
<br />
== Farbwahrnehmung beim Menschen ==<br />
<br />
[...]<br />
<br />
=== Rezeptive Wahrnehmung ===<br />
* 1807 stellte Young die Hypothese auf das Farbsehen auf drei Arten von Sinneszellen beruht (rout,grün,blau)<br />
* erst 1964 konnten dies bewiesen werden, durch die Messung der Absorptionsspektren<br />
*[[Datei:Pdt-kurven.svg]]<br />
<br />
=== Postrezeptive Wahrnehmung ===<br />
* Mit dem 3 Farbenmodell konnten einige psychologische Erscheinungen nicht erklärt werden<br />
** Es werden 4 Farben als besonderst "rein" empfunden (Rto, Geln,Grün, Blau)<br />
** Unbunte Farben werden werden als das fehlen von Farben wahrgenommen<br />
** Schwarz schein gleichberechtigt zu Weiß<br />
** keine wahrgenommene Farbe erscheint zugleich rötlich und grün<br />
* das führte zur Gegenfarbentheorie die anfangs nur Psychologisch begründet war 1958 aber physiologisch Nachgewiesen werden konnte<br />
** Rot - Grün<br />
** Gelb - Blau<br />
** Schwarz - Weiß<br />
* → CIELab-Farbraum<br />
<br />
=== Kortikale Kodierung ===<br />
* Weder die 3 Farbentheorie noch die Gegenfarbentheorie beschreiben die bewusste Wahrnehmung des Menschen<br />
* Deshalb erweitertes Modell<br />
** Farbton / Buntton beschreibt die als besonderst rein empfundenen Spektralfarben<br />
** Sättigung beschreibt wie stark eine Farbe verblasst ist<br />
** Helligkeit beschreibt, wie hell oder dunkel eine Farbe ist<br />
* Wo/Wie genau die neuronale Verarbeitung erfolgt, ist noch nicht sicher belegt<br />
<br />
== Die Ordnung in der Welt der Farben ==<br />
* Newton kannte die Wellenlänge noch nicht → er ordnete die Farben nach dem Regenbogen<br />
* Goethe verwendete das Gegenfarbenmodell<br />
* Munsell schlug 1905 ein Farbordnungssystem vor bei dem alle Abstände zwischen den Farben Empfindungsmäßig gleich sind<br />
** führt zu einem geometrisch nicht regelmäßigen Körper<br />
<br />
== Das Modell der Farbe ==<br />
* '''Definition'''<br />
** Farbe ist diejenige Gesichtsempfindung eines dem Auge strukturlos erscheinenden Teils eines Gesichtsfeldes durch die sich diser Teil bei einäugiger Betrachtung mit unbewegtem Auge von einem gleichzeitig gesehenen ebenfalls strukturlos angrenzendem Bezirk allein unterscheidet (unbunte Farben: Schwarz, Weiß und Graustufen, bunte Farben: Helligkeit; Buntheit setzt sich aus Buntton und Farbsättigung zusammen)<br />
** Farbe ist durch Helligkeit, Buntton, Sättigung eindeutig bestimmt → 3D Modell<br />
*** drei linear unabhängige Größen<br />
*** Additive Mischung zur Reproduktion von Farbe (aus Rot, Grün, Blau)<br />
*** drei linearunabhängige Größen spannen immer einen Raum auf → Rot,Grün und Blau werden die Achsen dieses Raumes<br />
<br />
=== Farbvalenz ===<br />
* Mit unserem Modell läßt sich jede Farbe als linearkombination unserer drei Basisvektoren aufschreiben<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
** <math> \vec F</math> ... Farbvalenz<br />
** <math> \vec r, \vec g, \vec b </math> ... die drei Basisvektoren die den Raum aufspannen (Rot, Grün und Blau)<br />
** <math> R,G,B, |\vec F| </math> ... die Farbwerte<br />
** <math> \vec r \cdot R, \vec g \cdot G, \vec b \cdot B </math> ... die drei Primärvalenzen<br />
* Ermittelt werden die Farbwerte mit Hilfe der Vergleichsmethode<br />
** Eine Person vergleicht ein Target mit einer Farbe die aus den drei Primärvalenzen gemischt wird<br />
** wenn die Empfindung der beiden Farben gleich ist, dann notieren wir die Werte<br />
* Innere Farbmischung<br />
** das Target wird mit weißen Licht beleuchtet und wir drehen nur an dem Farbmischgerät<br />
** <math> \vec F = R \cdot \vec r + G \cdot \vec g + B \cdot \vec b </math><br />
* Äußere Farbmischung<br />
** Wir beleuchten das Target mit farbigen Lichte<br />
**<math> \vec F+ B \cdot \vec b = R \cdot \vec r + G \cdot \vec g \rightarrow \vec F = R \cdot \vec r + G \cdot \vec g - B \cdot \vec b</math><br />
<br />
=== Farbreizmetrik ===<br />
* Die Farbreizfunktion <math> \varphi_\lambda</math> beschreibt die spektrale Zusammensetzung der Farbempfindungen<br />
*# Selbstleuchtende Objekte<br />
*#* <math> S_\lambda (\lambda)</math> beschreibt die spektrale Verteilung der Quelle<br />
*#* Wahrnehmung: <math> \varphi_\lambda = S_\lambda</math><br />
*# Auflicht Vorlagen<br />
*#* <math>\beta_\lambda(\lambda)</math> beschreibt den spektralen Remisionsgrad der Vorlage<br />
*#* Wahrnehmung: Licht reflektiert von der Vorlage <math> \varphi_\lambda = S_\lambda \cdot \beta_\lambda</math><br />
*# Durchlichtvorlagen<br />
*#* <math>\tau_\lambda(\lambda)</math> spektraler Transmissionsgrad der Vorlage<br />
*#* Wahrnehmung von Licht welches die Vorlage durchdrungen hat <math>\varphi_\lambda= S_\lambda \cdot \tau_\lambda</math><br />
* Damit haben folgende Faktoren Auswirkung auf die Wahrgenommene Farbe<br />
*# Die Beleuchtung des Objektes (Spektrale Zusammensetzung des Lichtes der Lampe)<br />
*# Das Remmisionsverhalten der beleuchteten Oberfläche<br />
*# Die wellenlängenabhängige Empfindlichkeit der drei Zapfen des Auges<br />
<br />
== Farbanalyse, Zusammenhang mit der Farbwidergabe ==<br />
[...]<br />
<br />
== Subtraktive Farbmischung ==<br />
[...]<br />
<br />
= Farbmetrische Schnittstellen - Farbräume (GF a 49 - 55) =<br />
<br />
<pre><br />
Unterschiedliche bildgebende Systeme<br />
z.B. Farbkameras<br />
Farbscanner<br />
Spezialkameras<br />
</pre><br />
'''Widerspruch''' <math>\updownarrow</math> Farbmetrische Schnittstelle<br />
<pre><br />
Unterschiedliche Bildwiedergabesysteme<br />
"True-Color-Darstellung"<br />
- unterschiedliche Monitore, Beamer, Drucker etc.<br />
</pre><br />
<br />
== Leuchtdichte (Luminanz) ==<br />
<br />
* Luminanz Y ist die Strahlungsleistung, bewertet mit der spektralen Empfindlichkeitsfunktion des Auges für das Hellempfinden<br />
* Y ist Leistungsproportional, wenn Lichtzusammensetzung (Leistungsdichte <math>\Theta (\lambda))</math> konstant bleibt<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* Leuchtdichte berechnet sich nach dem ''Abneyschen Gesetz'':<br />
: <math> Y = L = k \cdot \underline L^T \cdot \underline F </math><br />
:* <math>\underline L^T - </math> Leuchtdichtebeiwert: gibt an wie groß der Beitrag jedes Farbwertes der Farbvalenz zum Helleindruck ist, abhängig vom gewählten Farbwiedergabesystem<br />
* Leuchtdichte L <math>\ne</math> Intensität I<br />
: <math> I = \frac 1 3 (R+G+B)</math><br />
<br />
* die perzeptuelle Antwort unseres Auges auf die Leuchtdichte wird Helligkeit (Lightness) genannt<br />
: <math><br />
L^{\star} = \begin{cases}<br />
116 \cdot \sqrt [3] {\frac Y {Y_n}} -16, & \text{wenn } \frac Y {Y_n} > 0{,}008856\\<br />
903{,}3 \cdot {\frac Y {Y_n}}, & \text{wenn } \frac Y {Y_n} \le 0{,}008856<br />
\end{cases}<br />
</math><br />
<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: Eine Quelle die nur 18% der Luminanz einer Referenz hat, erscheint uns immer noch halb so hell wie die Referenz </span><br />
<br />
== Gammakorrektur und Luma ==<br />
<br />
'''Gammakorrektur:'''<br />
<br />
'''Luma:'''<br />
<br />
== Farbsysteme, Farbräume, reduzierte Farbräume ==<br />
<br />
= Das Normvalenz- oder XYZ-System (GF a 76 - 86) =<br />
<br />
= Farbmessung (GF 1 - 11) =<br />
<br />
* Farbmessung = Ermittlung der drei zu einer Farbvalenz gehörigen Farbmaßzahlen<br />
* 3 Messmethoden: <br />
** Vergleichsmethode oder Gleichheitsverfahren<br />
** Spektralverfahren<br />
** Dreibereichsverfahren<br />
<br />
== Gleichheitsverfahren ==<br />
<br />
* Vergleiche:<br />
** Vorlage mit additivem Gemisch<br />
** Vorlage mit Farbmusterkarten (DIN-Karten)<br />
* unverzichtbar bei physiologischen Untersuchungen<br />
* aufwendig und bei kleinen Probandengruppen ungenau<br />
* d.h. für technische Messungen ohne Bedeutung<br />
<br />
'''Messbedingungen nach DIN:'''<br />
* helladaptiertes und blendfreies Sehen<br />
* unbunter Messraum<br />
* neutrale Gesichtsfeldumgebung mit gleicher oder etwas kleinerer Leuchtdichte als im Messfeld<br />
* gut ausgeruhtes und neutral gestimmtes Auge<br />
* farbnormalsichtiger Beobachter<br />
<br />
== Spektralverfahren ==<br />
<br />
* zu messende Farbvalenz = Summe spektraler Farbvalenzen<br />
* greift auf gemessene Normspektralwertkurven zurück<br />
<br />
# '''spektrale Messung zur Ermittlung der Farbreizfunktion <math>\varphi (\lambda) </math>'''<br />
#* Selbststrahler: direkte Messung der Strahlungsfunktion <math>\rightarrow \varphi (\lambda)= S (\lambda)</math><br />
#* remittierende Vorlage: Remissionsfunktion der Vorlage messen, d.h. Strahlungsfunktion S ist vorher zu bestimmen und aus <math>\varphi (\lambda)</math> heraus zu rechnen <math>\rightarrow \varphi (\lambda)= \beta (\lambda) \cdot S (\lambda)</math><br />
# '''farbvalenzmetrische Auswertung'''<br />
#* wenn <math>\beta (\lambda)</math> ermittelt wurde, kann jede beliebige (tabellierte) Lichtquelle <math>S^{\ast} (\lambda)</math>eingesetzt werden<br />
#: <math><br />
\begin{bmatrix}<br />
X\\Y\\Z<br />
\end{bmatrix}<br />
= k \cdot<br />
\begin{bmatrix}<br />
\int \bar{x} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{y} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{z} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda<br />
\end{bmatrix}<br />
</math><br />
#* Normierungskonstante k:<br />
#** Selbststrahler: nur Farbwertanteile gefragt, d.h. k ist beliebig<br />
#** Körperfarben: Y für mattweißen Körper = 100, d.h. <math>k=\frac{100}{\int {S(\lambda) \cdot \bar{y}(\lambda) d \lambda}}</math><br />
<br />
'''Messgeometrien:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bildergalerie (45°,8°,Transmission) </span><br />
<br />
* ''45°-Geometrie'': Beleuchtung unter 45° schließt Glanzeinfluss aus <math>\rightarrow</math> Sensor blickt senkrecht auf Probe<br />
* ''8°-Geometrie'': Beleuchtung diffus über Ulbricht-Kugel <math>\rightarrow</math> Sensor blickt unter 8° auf Probe; Messung mit/ohne Glanz möglich<br />
* ''Transmissionsgeometrie'': Probe wird durchleuchtet<br />
<br />
== Dreibereichsverfahren ==<br />
[...]<br />
== Spektralmaskenverfahren ==<br />
[...]<br />
<br />
= Klassifikation von Messaufgaben (GF 82 - 86) =<br />
<br />
# Messung von objektiven Eigenschaften, die sich in der Veränderung spektraler Charakteristika niederschlagen<br />
#* vordergründig ist Zusammenhang zwischen Veränderungen in den physikalischen Eigenschaften von Interesse (z.B. Waferinspektion)<br />
#* Zusammenhang sollte eindeutig und von hinreichender Empfindlichkeit sein<br />
#* Wahrnehmung unterschiedlicher Farben eher Nebeneffekt<br />
# Überwachung der Stabilität von farblichen Erscheinungen<br />
#* ist bei einer oder mehreren Beleuchtungen zu überwachen<br />
#* absolute Farbmessung nicht nötig; "Anlernen" auf Farben genügt<br />
#* Abstände im Farbempfinden müssen sich in gleicher Weise in Veränderungen der Sensorsignale wiederspiegeln<br />
# absolute Farbmessung<br />
#* d.h. Ermittlung der korrekten Farbvalenz unter beliebigen Messbedingungen<br />
#* Spektralwertkurven müssen realisiert werden<br />
# Messung des spektralen Remissions- und/oder Transmissionsverhaltens von Materialien<br />
#* ausschließlich spektrale Messverfahren<br />
#* Messung der Strahlungsfunktion und der remittierten Leistungsdichte<br />
#* Berechnung der Farbvalenz bei beliebiger Beleuchtung und des Metamerie-Index<br />
<br />
'''steigende Ansprüche mit steigender Nummerierung'''<br />
<br />
= Einfache Farbkalibrierung (GF 16 - 41) =<br />
<br />
= Color Management (F CM 1 - 20) =<br />
<br />
= Kameras (GF_Ka 1 - 12) =<br />
<br />
'''Einsatzfelder:'''<br />
* ortsaufgelöste Messung von Farbe<br />
* Aufnahme und Wiedergabe von True-Color Bildern<br />
* Aufnahme farbiger oder mehrkanaliger Bilder für die Verarbeitung/Analyse (Qualitätssicherung)<br />
* Photogrammetrische Anwendungen (Lösung des Korrespondenzproblems)<br />
* Radiometrische Anwendungen (Messen im Spektralbereich)<br />
<br />
'''Dreibereichsmessung:'''<br />
* setzt die Trennung von drei sich überlappenden Spektralbereichen voraus, die dann wellenlängenabhängig zu bewerten und zu integrieren sind<br />
<br />
== Dreichip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* optische Kanaltrennung und Bewertung<br />
* beste Bildqualität, da hohe Auflösung in allen drei Kanälen<br />
* keinen örtlichen Versatz der Pixel in den drei Farbauszügen<br />
* Filter einfacher und präziser zu realisieren<br />
* befinden sich z.B. als dichroitische Spiegel auf den Strahteilerprismen<br />
<br />
<span style="color:#ee0000;"> \\ Hot-Mirror-, Cold-Mirror-Korrektur????</span><br />
<br />
== Einchip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: doppelte Anzahl grüner Pixel wegen Schärfe, MTF des Auges </span><br />
<br />
* örtliche Kanaltrennung und Bewertung<br />
* Streifen- oder Mosaikfilterstrukturen auf den einzelnen Pixeln zur örtlichen Signaltrennung<br />
* 3 oder 4 unterschiedliche spektrale Auszuüge zur Erzeugung der Farbinformation<br />
* Matrix selbst kann Interline- oder Frame-Transfer-Matrix sein<br />
* kostengünstiger und kleiner als Dreichip-Kameras<br />
* Probleme:<br />
** Farbvalenzen aus örtlich versetzten Auszügen (z.B. Farbsäume an Kanten)<br />
** nicht korrigierbare Fehler aus Nichtlinearitäten und Dunkelsignalen bei der Bildung von Mischsignalen<br />
<br />
'''generelle Anforderungen an die Signalverarbeitung:'''<br />
<br />
* primäre Kamerasignale stellen keine farbmetrische Schnittstelle zur Verfügung, d.h. alle Bewertungsfunktionen sind nicht-negativ (Spektralwertkurven fordern aber negative Wichtungen)<br />
* je nach realisierten Filtern und Genauigkeitsansprüchen <math>\rightarrow</math> lineare Matrizierung (meist Kameraintern) oder komplexere Approximation<br />
* bei hohen Genauigkeitsansprüchen <math>\rightarrow</math> Umgehung der Kamerainternen Matrizierung, weil Verstärkungsfaktoren, Toleranzen, Temperaturdrift, Langzeitstabilität etc. nicht bekannt sind<br />
* insgesamt geringe Nichtlinearitäten der CCD's können in den Ansteuerbereichen der einzelnen Kanäle zu wesentlichen Fehlern führen:<br />
** Farbvalenz ändert sich kontinuirlich mit der Shutterzeit<br />
** Pixelweise DSNU- (Dunkelsignalungleichförmigkeit) und PRNU- (Hellsignalungleichförmigkeit) Korrektur vor Erzeugung der Farbvalenz erforderlich, da sich Festmusterrauschen nicht nur auf Intensität sondern auch auf Farbart auswirkt<br />
** Dunkelsignal verdoppelt sich alle 7K, Gleichanteil wird aber geklemmt<br />
** Lichtquellentyp und Langzeitverhalten wirken sich nicht nur Intensität sondern auch auf Farbtemperatur aus<br />
<br />
'''4 spektrale Bereiche:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* vorteilhaft zur Erzeugung von Farbdifferenzsignalen für die TV-Kompatibilität<br />
* im Field-Integration-Mode werden Mischsignale gebildet, die die erforderliche Signalkorrektur für hohe Ansprüche behindern<br />
* Nichtlinearität der Ausgangsverstärker wirkt sich auf Korrektur der primären Mischsignale aus<br />
<br />
== Sequentielle Einchip-Kamera ==<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* zeitliche Kanaltrennung und Bewertung<br />
* relativ genaue Approximation der Spektralwertkurven möglich<br />
<br />
== Elektrisch steuerbare Filter ==<br />
<br />
* über die Wellenlängenabhängigkeit der Eindringtiefe der Photonen und die Steuerbarkeit der Tiefe der Potentialmulden der sensoren lassen sich steuerbare spektrale Empfindlichkeiten erzeugen<br />
<br />
= Verarbeitung von Farbbildern (1 - 31) =<br />
<br />
= Referenzfreie Farbadaption auf Basis des 3D-Histogramms (HuS 32 - 39 ) =<br />
<br />
= Histogrammbasiertes Farbmatching(1 - 15) =<br />
<br />
= Störunterdrückung (SU 1 - 16) =<br />
<br />
= Kantendetektion in Farbbildern (1 - 21) =<br />
<br />
= Farbpixelklassifikation (Farbpixelklassifikation 1 - 21) =<br />
<br />
= Clusterverfahren (Farbpixelklassifikation 19 - 45) =<br />
<br />
= Segmentierung (Seg 1 - 8) =<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Grundlagen_der_Farbbildverarbeitung&diff=6968Grundlagen der Farbbildverarbeitung2009-03-12T13:39:16Z<p>DarkGhost: /* Die Ordnung in der Welt der Farben */</p>
<hr />
<div>Link zum [http://www.zbs-ilmenau.de/intern/vip-toolkit/index.php Vip toolkit]<br />
= Einführung (GF_a 8 - 47) =<br />
<br />
== Geschichtliches zur Farbe ==<br />
<br />
=== Newton ===<br />
<br />
* 1672: New Theory about Light and Colours<br />
** Sonnenlicht = Mischung einzelner Farben<br />
** Spektralfarben sind objektive Eigenschaft des Lichtes<br />
<br />
[...]<br />
<br />
=== Goethe ===<br />
<br />
[...]<br />
<br />
== Begriff der Farbe ==<br />
<br />
* '''Farbe im engeren Sinn, stellt eine spezielle menschliche Sinneswahrnehmung dar'''<br />
* <math>\Phi_i = \int_{\Delta \lambda_i} \varphi_{\lambda} (\lambda) d \lambda</math><br />
* Leistungsdichte <math>\phi (\lambda)</math> stellt dagegen den Farbreiz dar, der die Farbempfindung hervorruft<br />
* Vektoren <math>\underline \Phi</math> sind je nach Dimension mehr oder minder genaue Approximationen des Farbreizes<br />
<br />
* Orientierung am menschlichen visuellen System und die Betrachtung psychologischer und physiologischer Grundlagen sind von Interesse:<br />
** zur richtigen Bewertung der Schwierigkeiten und Herausforderungen bei der Schaffung technischer Lösungen<br />
** zur Anpassung technischer Lösungen der Bildwiedergabe an das visuelle System<br />
** zur Nutzung optimaler Naturprinzipien für technische Lösungen<br />
** weil technische Systeme im allgemeinen auf dem inneren Modell des Menschen von der Welt beruhen und dieses Modell in hohem Maße durch den visuellen Kanal des Menschen beeinflusst ist<br />
** weil optoelektronische Sensoren, Bildverarbeitung und Bildanalyse wichtige Schnittstellen zwischen Mensch und Maschine darstellen<br />
**weil viele Objekteigenschaften durch visuelle Eindrücke beschrieben werden<br />
<br />
* menschliches Auge kann ca. 100 Graustufen / ca. 300 000 Farben unterscheiden<br />
<br />
* Drei grundsätzliche Anwendungen von Farbinformation:<br />
** Pseudokolorierung<br />
** Falschfarbendarstellung<br />
** Echtfarbdarstellung (True Color) <math>\rarr</math> hier Schwerpunkt<br />
<br />
== Farbtäuschung ==<br />
<br />
* Zuordnung zwischen Physik und Wahrnehmung nur eindeutig wenn bunte Dinge isoliert betrachtet werden<br />
* Werden bunte Objekte in bunte Umgebungen eingebettet/bewegt, dann können abweichende Farbwahrnehmungen auftreten, so genannte Farbtäuschungen<br />
* es existieren unterschiedliche Arten solcher Täuschungen:<br />
** ''Farbinduktion oder simultaner Farbkontrast'' (Farbe wird durch ihre Umgebung modifiziert)<br />
** ''Farbkonflikt'' (es konkurrieren verschiedene Sehinformationen miteinander)<br />
** ''Subjektive Farben'' (es werden bunte Farbtöne wahrgenommen, die nicht vorliegen)<br />
<br />
'''Simultaner Farbkontrast:'''<br />
* erstmals 1839 beschrieben<br />
* wo der Effekt entsteht (Auge, Cortex) ist unklar<br />
<br />
'''Farbinduktion:'''<br />
* bei kleinteiligen, sich wiederholenden Strukturen erfolgt Angleichung<br />
* kann zur Rauschunterdrückung oder zur Unterdrückung von Feintexturen zugunsten der Erkennung größerer Objekte wichtig sein<br />
<br />
'''Farbkonflikt:'''<br />
* Formen und Strukturen konkurrieren mit Farben ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf White'sche Illusion])<br />
<br />
'''Subjektive Farben:'''<br />
* durch Bewegung ist es möglich Farben zu erzeugen die ursprünglich nicht vorhanden waren ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf Drehwurm in Farbe])<br />
<br />
== Farbwahrnehmung beim Menschen ==<br />
<br />
[...]<br />
<br />
=== Rezeptive Wahrnehmung ===<br />
* 1807 stellte Young die Hypothese auf das Farbsehen auf drei Arten von Sinneszellen beruht (rout,grün,blau)<br />
* erst 1964 konnten dies bewiesen werden, durch die Messung der Absorptionsspektren<br />
*[[Datei:Pdt-kurven.svg]]<br />
<br />
=== Postrezeptive Wahrnehmung ===<br />
* Mit dem 3 Farbenmodell konnten einige psychologische Erscheinungen nicht erklärt werden<br />
** Es werden 4 Farben als besonderst "rein" empfunden (Rto, Geln,Grün, Blau)<br />
** Unbunte Farben werden werden als das fehlen von Farben wahrgenommen<br />
** Schwarz schein gleichberechtigt zu Weiß<br />
** keine wahrgenommene Farbe erscheint zugleich rötlich und grün<br />
* das führte zur Gegenfarbentheorie die anfangs nur Psychologisch begründet war 1958 aber physiologisch Nachgewiesen werden konnte<br />
** Rot - Grün<br />
** Gelb - Blau<br />
** Schwarz - Weiß<br />
* → CIELab-Farbraum<br />
<br />
=== Kortikale Kodierung ===<br />
* Weder die 3 Farbentheorie noch die Gegenfarbentheorie beschreiben die bewusste Wahrnehmung des Menschen<br />
* Deshalb erweitertes Modell<br />
** Farbton / Buntton beschreibt die als besonderst rein empfundenen Spektralfarben<br />
** Sättigung beschreibt wie stark eine Farbe verblasst ist<br />
** Helligkeit beschreibt, wie hell oder dunkel eine Farbe ist<br />
* Wo/Wie genau die neuronale Verarbeitung erfolgt, ist noch nicht sicher belegt<br />
<br />
== Die Ordnung in der Welt der Farben ==<br />
* Newton kannte die Wellenlänge noch nicht → er ordnete die Farben nach dem Regenbogen<br />
* Goethe verwendete das Gegenfarbenmodell<br />
* Munsell schlug 1905 ein Farbordnungssystem vor bei dem alle Abstände zwischen den Farben Empfindungsmäßig gleich sind<br />
** führt zu einem geometrisch nicht regelmäßigen Körper<br />
<br />
== Das Modell der Farbe ==<br />
[...]<br />
<br />
=== Farbvalenz ===<br />
[...]<br />
<br />
=== Farbreizmetrik ===<br />
[...]<br />
<br />
== Farbanalyse, Zusammenhang mit der Farbwidergabe ==<br />
[...]<br />
<br />
== Subtraktive Farbmischung ==<br />
[...]<br />
<br />
= Farbmetrische Schnittstellen - Farbräume (GF a 49 - 55) =<br />
<br />
<pre><br />
Unterschiedliche bildgebende Systeme<br />
z.B. Farbkameras<br />
Farbscanner<br />
Spezialkameras<br />
</pre><br />
'''Widerspruch''' <math>\updownarrow</math> Farbmetrische Schnittstelle<br />
<pre><br />
Unterschiedliche Bildwiedergabesysteme<br />
"True-Color-Darstellung"<br />
- unterschiedliche Monitore, Beamer, Drucker etc.<br />
</pre><br />
<br />
== Leuchtdichte (Luminanz) ==<br />
<br />
* Luminanz Y ist die Strahlungsleistung, bewertet mit der spektralen Empfindlichkeitsfunktion des Auges für das Hellempfinden<br />
* Y ist Leistungsproportional, wenn Lichtzusammensetzung (Leistungsdichte <math>\Theta (\lambda))</math> konstant bleibt<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* Leuchtdichte berechnet sich nach dem ''Abneyschen Gesetz'':<br />
: <math> Y = L = k \cdot \underline L^T \cdot \underline F </math><br />
:* <math>\underline L^T - </math> Leuchtdichtebeiwert: gibt an wie groß der Beitrag jedes Farbwertes der Farbvalenz zum Helleindruck ist, abhängig vom gewählten Farbwiedergabesystem<br />
* Leuchtdichte L <math>\ne</math> Intensität I<br />
: <math> I = \frac 1 3 (R+G+B)</math><br />
<br />
* die perzeptuelle Antwort unseres Auges auf die Leuchtdichte wird Helligkeit (Lightness) genannt<br />
: <math><br />
L^{\star} = \begin{cases}<br />
116 \cdot \sqrt [3] {\frac Y {Y_n}} -16, & \text{wenn } \frac Y {Y_n} > 0{,}008856\\<br />
903{,}3 \cdot {\frac Y {Y_n}}, & \text{wenn } \frac Y {Y_n} \le 0{,}008856<br />
\end{cases}<br />
</math><br />
<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: Eine Quelle die nur 18% der Luminanz einer Referenz hat, erscheint uns immer noch halb so hell wie die Referenz </span><br />
<br />
== Gammakorrektur und Luma ==<br />
<br />
'''Gammakorrektur:'''<br />
<br />
'''Luma:'''<br />
<br />
== Farbsysteme, Farbräume, reduzierte Farbräume ==<br />
<br />
= Das Normvalenz- oder XYZ-System (GF a 76 - 86) =<br />
<br />
= Farbmessung (GF 1 - 11) =<br />
<br />
* Farbmessung = Ermittlung der drei zu einer Farbvalenz gehörigen Farbmaßzahlen<br />
* 3 Messmethoden: <br />
** Vergleichsmethode oder Gleichheitsverfahren<br />
** Spektralverfahren<br />
** Dreibereichsverfahren<br />
<br />
== Gleichheitsverfahren ==<br />
<br />
* Vergleiche:<br />
** Vorlage mit additivem Gemisch<br />
** Vorlage mit Farbmusterkarten (DIN-Karten)<br />
* unverzichtbar bei physiologischen Untersuchungen<br />
* aufwendig und bei kleinen Probandengruppen ungenau<br />
* d.h. für technische Messungen ohne Bedeutung<br />
<br />
'''Messbedingungen nach DIN:'''<br />
* helladaptiertes und blendfreies Sehen<br />
* unbunter Messraum<br />
* neutrale Gesichtsfeldumgebung mit gleicher oder etwas kleinerer Leuchtdichte als im Messfeld<br />
* gut ausgeruhtes und neutral gestimmtes Auge<br />
* farbnormalsichtiger Beobachter<br />
<br />
== Spektralverfahren ==<br />
<br />
* zu messende Farbvalenz = Summe spektraler Farbvalenzen<br />
* greift auf gemessene Normspektralwertkurven zurück<br />
<br />
# '''spektrale Messung zur Ermittlung der Farbreizfunktion <math>\varphi (\lambda) </math>'''<br />
#* Selbststrahler: direkte Messung der Strahlungsfunktion <math>\rightarrow \varphi (\lambda)= S (\lambda)</math><br />
#* remittierende Vorlage: Remissionsfunktion der Vorlage messen, d.h. Strahlungsfunktion S ist vorher zu bestimmen und aus <math>\varphi (\lambda)</math> heraus zu rechnen <math>\rightarrow \varphi (\lambda)= \beta (\lambda) \cdot S (\lambda)</math><br />
# '''farbvalenzmetrische Auswertung'''<br />
#* wenn <math>\beta (\lambda)</math> ermittelt wurde, kann jede beliebige (tabellierte) Lichtquelle <math>S^{\ast} (\lambda)</math>eingesetzt werden<br />
#: <math><br />
\begin{bmatrix}<br />
X\\Y\\Z<br />
\end{bmatrix}<br />
= k \cdot<br />
\begin{bmatrix}<br />
\int \bar{x} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{y} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{z} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda<br />
\end{bmatrix}<br />
</math><br />
#* Normierungskonstante k:<br />
#** Selbststrahler: nur Farbwertanteile gefragt, d.h. k ist beliebig<br />
#** Körperfarben: Y für mattweißen Körper = 100, d.h. <math>k=\frac{100}{\int {S(\lambda) \cdot \bar{y}(\lambda) d \lambda}}</math><br />
<br />
'''Messgeometrien:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bildergalerie (45°,8°,Transmission) </span><br />
<br />
* ''45°-Geometrie'': Beleuchtung unter 45° schließt Glanzeinfluss aus <math>\rightarrow</math> Sensor blickt senkrecht auf Probe<br />
* ''8°-Geometrie'': Beleuchtung diffus über Ulbricht-Kugel <math>\rightarrow</math> Sensor blickt unter 8° auf Probe; Messung mit/ohne Glanz möglich<br />
* ''Transmissionsgeometrie'': Probe wird durchleuchtet<br />
<br />
== Dreibereichsverfahren ==<br />
[...]<br />
== Spektralmaskenverfahren ==<br />
[...]<br />
<br />
= Klassifikation von Messaufgaben (GF 82 - 86) =<br />
<br />
# Messung von objektiven Eigenschaften, die sich in der Veränderung spektraler Charakteristika niederschlagen<br />
#* vordergründig ist Zusammenhang zwischen Veränderungen in den physikalischen Eigenschaften von Interesse (z.B. Waferinspektion)<br />
#* Zusammenhang sollte eindeutig und von hinreichender Empfindlichkeit sein<br />
#* Wahrnehmung unterschiedlicher Farben eher Nebeneffekt<br />
# Überwachung der Stabilität von farblichen Erscheinungen<br />
#* ist bei einer oder mehreren Beleuchtungen zu überwachen<br />
#* absolute Farbmessung nicht nötig; "Anlernen" auf Farben genügt<br />
#* Abstände im Farbempfinden müssen sich in gleicher Weise in Veränderungen der Sensorsignale wiederspiegeln<br />
# absolute Farbmessung<br />
#* d.h. Ermittlung der korrekten Farbvalenz unter beliebigen Messbedingungen<br />
#* Spektralwertkurven müssen realisiert werden<br />
# Messung des spektralen Remissions- und/oder Transmissionsverhaltens von Materialien<br />
#* ausschließlich spektrale Messverfahren<br />
#* Messung der Strahlungsfunktion und der remittierten Leistungsdichte<br />
#* Berechnung der Farbvalenz bei beliebiger Beleuchtung und des Metamerie-Index<br />
<br />
'''steigende Ansprüche mit steigender Nummerierung'''<br />
<br />
= Einfache Farbkalibrierung (GF 16 - 41) =<br />
<br />
= Color Management (F CM 1 - 20) =<br />
<br />
= Kameras (GF_Ka 1 - 12) =<br />
<br />
'''Einsatzfelder:'''<br />
* ortsaufgelöste Messung von Farbe<br />
* Aufnahme und Wiedergabe von True-Color Bildern<br />
* Aufnahme farbiger oder mehrkanaliger Bilder für die Verarbeitung/Analyse (Qualitätssicherung)<br />
* Photogrammetrische Anwendungen (Lösung des Korrespondenzproblems)<br />
* Radiometrische Anwendungen (Messen im Spektralbereich)<br />
<br />
'''Dreibereichsmessung:'''<br />
* setzt die Trennung von drei sich überlappenden Spektralbereichen voraus, die dann wellenlängenabhängig zu bewerten und zu integrieren sind<br />
<br />
== Dreichip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* optische Kanaltrennung und Bewertung<br />
* beste Bildqualität, da hohe Auflösung in allen drei Kanälen<br />
* keinen örtlichen Versatz der Pixel in den drei Farbauszügen<br />
* Filter einfacher und präziser zu realisieren<br />
* befinden sich z.B. als dichroitische Spiegel auf den Strahteilerprismen<br />
<br />
<span style="color:#ee0000;"> \\ Hot-Mirror-, Cold-Mirror-Korrektur????</span><br />
<br />
== Einchip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: doppelte Anzahl grüner Pixel wegen Schärfe, MTF des Auges </span><br />
<br />
* örtliche Kanaltrennung und Bewertung<br />
* Streifen- oder Mosaikfilterstrukturen auf den einzelnen Pixeln zur örtlichen Signaltrennung<br />
* 3 oder 4 unterschiedliche spektrale Auszuüge zur Erzeugung der Farbinformation<br />
* Matrix selbst kann Interline- oder Frame-Transfer-Matrix sein<br />
* kostengünstiger und kleiner als Dreichip-Kameras<br />
* Probleme:<br />
** Farbvalenzen aus örtlich versetzten Auszügen (z.B. Farbsäume an Kanten)<br />
** nicht korrigierbare Fehler aus Nichtlinearitäten und Dunkelsignalen bei der Bildung von Mischsignalen<br />
<br />
'''generelle Anforderungen an die Signalverarbeitung:'''<br />
<br />
* primäre Kamerasignale stellen keine farbmetrische Schnittstelle zur Verfügung, d.h. alle Bewertungsfunktionen sind nicht-negativ (Spektralwertkurven fordern aber negative Wichtungen)<br />
* je nach realisierten Filtern und Genauigkeitsansprüchen <math>\rightarrow</math> lineare Matrizierung (meist Kameraintern) oder komplexere Approximation<br />
* bei hohen Genauigkeitsansprüchen <math>\rightarrow</math> Umgehung der Kamerainternen Matrizierung, weil Verstärkungsfaktoren, Toleranzen, Temperaturdrift, Langzeitstabilität etc. nicht bekannt sind<br />
* insgesamt geringe Nichtlinearitäten der CCD's können in den Ansteuerbereichen der einzelnen Kanäle zu wesentlichen Fehlern führen:<br />
** Farbvalenz ändert sich kontinuirlich mit der Shutterzeit<br />
** Pixelweise DSNU- (Dunkelsignalungleichförmigkeit) und PRNU- (Hellsignalungleichförmigkeit) Korrektur vor Erzeugung der Farbvalenz erforderlich, da sich Festmusterrauschen nicht nur auf Intensität sondern auch auf Farbart auswirkt<br />
** Dunkelsignal verdoppelt sich alle 7K, Gleichanteil wird aber geklemmt<br />
** Lichtquellentyp und Langzeitverhalten wirken sich nicht nur Intensität sondern auch auf Farbtemperatur aus<br />
<br />
'''4 spektrale Bereiche:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* vorteilhaft zur Erzeugung von Farbdifferenzsignalen für die TV-Kompatibilität<br />
* im Field-Integration-Mode werden Mischsignale gebildet, die die erforderliche Signalkorrektur für hohe Ansprüche behindern<br />
* Nichtlinearität der Ausgangsverstärker wirkt sich auf Korrektur der primären Mischsignale aus<br />
<br />
== Sequentielle Einchip-Kamera ==<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* zeitliche Kanaltrennung und Bewertung<br />
* relativ genaue Approximation der Spektralwertkurven möglich<br />
<br />
== Elektrisch steuerbare Filter ==<br />
<br />
* über die Wellenlängenabhängigkeit der Eindringtiefe der Photonen und die Steuerbarkeit der Tiefe der Potentialmulden der sensoren lassen sich steuerbare spektrale Empfindlichkeiten erzeugen<br />
<br />
= Verarbeitung von Farbbildern (1 - 31) =<br />
<br />
= Referenzfreie Farbadaption auf Basis des 3D-Histogramms (HuS 32 - 39 ) =<br />
<br />
= Histogrammbasiertes Farbmatching(1 - 15) =<br />
<br />
= Störunterdrückung (SU 1 - 16) =<br />
<br />
= Kantendetektion in Farbbildern (1 - 21) =<br />
<br />
= Farbpixelklassifikation (Farbpixelklassifikation 1 - 21) =<br />
<br />
= Clusterverfahren (Farbpixelklassifikation 19 - 45) =<br />
<br />
= Segmentierung (Seg 1 - 8) =<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Grundlagen_der_Farbbildverarbeitung&diff=6967Grundlagen der Farbbildverarbeitung2009-03-12T13:35:29Z<p>DarkGhost: /* Farbwahrnehmung beim Menschen */</p>
<hr />
<div>Link zum [http://www.zbs-ilmenau.de/intern/vip-toolkit/index.php Vip toolkit]<br />
= Einführung (GF_a 8 - 47) =<br />
<br />
== Geschichtliches zur Farbe ==<br />
<br />
=== Newton ===<br />
<br />
* 1672: New Theory about Light and Colours<br />
** Sonnenlicht = Mischung einzelner Farben<br />
** Spektralfarben sind objektive Eigenschaft des Lichtes<br />
<br />
[...]<br />
<br />
=== Goethe ===<br />
<br />
[...]<br />
<br />
== Begriff der Farbe ==<br />
<br />
* '''Farbe im engeren Sinn, stellt eine spezielle menschliche Sinneswahrnehmung dar'''<br />
* <math>\Phi_i = \int_{\Delta \lambda_i} \varphi_{\lambda} (\lambda) d \lambda</math><br />
* Leistungsdichte <math>\phi (\lambda)</math> stellt dagegen den Farbreiz dar, der die Farbempfindung hervorruft<br />
* Vektoren <math>\underline \Phi</math> sind je nach Dimension mehr oder minder genaue Approximationen des Farbreizes<br />
<br />
* Orientierung am menschlichen visuellen System und die Betrachtung psychologischer und physiologischer Grundlagen sind von Interesse:<br />
** zur richtigen Bewertung der Schwierigkeiten und Herausforderungen bei der Schaffung technischer Lösungen<br />
** zur Anpassung technischer Lösungen der Bildwiedergabe an das visuelle System<br />
** zur Nutzung optimaler Naturprinzipien für technische Lösungen<br />
** weil technische Systeme im allgemeinen auf dem inneren Modell des Menschen von der Welt beruhen und dieses Modell in hohem Maße durch den visuellen Kanal des Menschen beeinflusst ist<br />
** weil optoelektronische Sensoren, Bildverarbeitung und Bildanalyse wichtige Schnittstellen zwischen Mensch und Maschine darstellen<br />
**weil viele Objekteigenschaften durch visuelle Eindrücke beschrieben werden<br />
<br />
* menschliches Auge kann ca. 100 Graustufen / ca. 300 000 Farben unterscheiden<br />
<br />
* Drei grundsätzliche Anwendungen von Farbinformation:<br />
** Pseudokolorierung<br />
** Falschfarbendarstellung<br />
** Echtfarbdarstellung (True Color) <math>\rarr</math> hier Schwerpunkt<br />
<br />
== Farbtäuschung ==<br />
<br />
* Zuordnung zwischen Physik und Wahrnehmung nur eindeutig wenn bunte Dinge isoliert betrachtet werden<br />
* Werden bunte Objekte in bunte Umgebungen eingebettet/bewegt, dann können abweichende Farbwahrnehmungen auftreten, so genannte Farbtäuschungen<br />
* es existieren unterschiedliche Arten solcher Täuschungen:<br />
** ''Farbinduktion oder simultaner Farbkontrast'' (Farbe wird durch ihre Umgebung modifiziert)<br />
** ''Farbkonflikt'' (es konkurrieren verschiedene Sehinformationen miteinander)<br />
** ''Subjektive Farben'' (es werden bunte Farbtöne wahrgenommen, die nicht vorliegen)<br />
<br />
'''Simultaner Farbkontrast:'''<br />
* erstmals 1839 beschrieben<br />
* wo der Effekt entsteht (Auge, Cortex) ist unklar<br />
<br />
'''Farbinduktion:'''<br />
* bei kleinteiligen, sich wiederholenden Strukturen erfolgt Angleichung<br />
* kann zur Rauschunterdrückung oder zur Unterdrückung von Feintexturen zugunsten der Erkennung größerer Objekte wichtig sein<br />
<br />
'''Farbkonflikt:'''<br />
* Formen und Strukturen konkurrieren mit Farben ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf White'sche Illusion])<br />
<br />
'''Subjektive Farben:'''<br />
* durch Bewegung ist es möglich Farben zu erzeugen die ursprünglich nicht vorhanden waren ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf Drehwurm in Farbe])<br />
<br />
== Farbwahrnehmung beim Menschen ==<br />
<br />
[...]<br />
<br />
=== Rezeptive Wahrnehmung ===<br />
* 1807 stellte Young die Hypothese auf das Farbsehen auf drei Arten von Sinneszellen beruht (rout,grün,blau)<br />
* erst 1964 konnten dies bewiesen werden, durch die Messung der Absorptionsspektren<br />
*[[Datei:Pdt-kurven.svg]]<br />
<br />
=== Postrezeptive Wahrnehmung ===<br />
* Mit dem 3 Farbenmodell konnten einige psychologische Erscheinungen nicht erklärt werden<br />
** Es werden 4 Farben als besonderst "rein" empfunden (Rto, Geln,Grün, Blau)<br />
** Unbunte Farben werden werden als das fehlen von Farben wahrgenommen<br />
** Schwarz schein gleichberechtigt zu Weiß<br />
** keine wahrgenommene Farbe erscheint zugleich rötlich und grün<br />
* das führte zur Gegenfarbentheorie die anfangs nur Psychologisch begründet war 1958 aber physiologisch Nachgewiesen werden konnte<br />
** Rot - Grün<br />
** Gelb - Blau<br />
** Schwarz - Weiß<br />
* → CIELab-Farbraum<br />
<br />
=== Kortikale Kodierung ===<br />
* Weder die 3 Farbentheorie noch die Gegenfarbentheorie beschreiben die bewusste Wahrnehmung des Menschen<br />
* Deshalb erweitertes Modell<br />
** Farbton / Buntton beschreibt die als besonderst rein empfundenen Spektralfarben<br />
** Sättigung beschreibt wie stark eine Farbe verblasst ist<br />
** Helligkeit beschreibt, wie hell oder dunkel eine Farbe ist<br />
* Wo/Wie genau die neuronale Verarbeitung erfolgt, ist noch nicht sicher belegt<br />
<br />
== Die Ordnung in der Welt der Farben ==<br />
[...]<br />
<br />
== Das Modell der Farbe ==<br />
[...]<br />
<br />
=== Farbvalenz ===<br />
[...]<br />
<br />
=== Farbreizmetrik ===<br />
[...]<br />
<br />
== Farbanalyse, Zusammenhang mit der Farbwidergabe ==<br />
[...]<br />
<br />
== Subtraktive Farbmischung ==<br />
[...]<br />
<br />
= Farbmetrische Schnittstellen - Farbräume (GF a 49 - 55) =<br />
<br />
<pre><br />
Unterschiedliche bildgebende Systeme<br />
z.B. Farbkameras<br />
Farbscanner<br />
Spezialkameras<br />
</pre><br />
'''Widerspruch''' <math>\updownarrow</math> Farbmetrische Schnittstelle<br />
<pre><br />
Unterschiedliche Bildwiedergabesysteme<br />
"True-Color-Darstellung"<br />
- unterschiedliche Monitore, Beamer, Drucker etc.<br />
</pre><br />
<br />
== Leuchtdichte (Luminanz) ==<br />
<br />
* Luminanz Y ist die Strahlungsleistung, bewertet mit der spektralen Empfindlichkeitsfunktion des Auges für das Hellempfinden<br />
* Y ist Leistungsproportional, wenn Lichtzusammensetzung (Leistungsdichte <math>\Theta (\lambda))</math> konstant bleibt<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* Leuchtdichte berechnet sich nach dem ''Abneyschen Gesetz'':<br />
: <math> Y = L = k \cdot \underline L^T \cdot \underline F </math><br />
:* <math>\underline L^T - </math> Leuchtdichtebeiwert: gibt an wie groß der Beitrag jedes Farbwertes der Farbvalenz zum Helleindruck ist, abhängig vom gewählten Farbwiedergabesystem<br />
* Leuchtdichte L <math>\ne</math> Intensität I<br />
: <math> I = \frac 1 3 (R+G+B)</math><br />
<br />
* die perzeptuelle Antwort unseres Auges auf die Leuchtdichte wird Helligkeit (Lightness) genannt<br />
: <math><br />
L^{\star} = \begin{cases}<br />
116 \cdot \sqrt [3] {\frac Y {Y_n}} -16, & \text{wenn } \frac Y {Y_n} > 0{,}008856\\<br />
903{,}3 \cdot {\frac Y {Y_n}}, & \text{wenn } \frac Y {Y_n} \le 0{,}008856<br />
\end{cases}<br />
</math><br />
<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: Eine Quelle die nur 18% der Luminanz einer Referenz hat, erscheint uns immer noch halb so hell wie die Referenz </span><br />
<br />
== Gammakorrektur und Luma ==<br />
<br />
'''Gammakorrektur:'''<br />
<br />
'''Luma:'''<br />
<br />
== Farbsysteme, Farbräume, reduzierte Farbräume ==<br />
<br />
= Das Normvalenz- oder XYZ-System (GF a 76 - 86) =<br />
<br />
= Farbmessung (GF 1 - 11) =<br />
<br />
* Farbmessung = Ermittlung der drei zu einer Farbvalenz gehörigen Farbmaßzahlen<br />
* 3 Messmethoden: <br />
** Vergleichsmethode oder Gleichheitsverfahren<br />
** Spektralverfahren<br />
** Dreibereichsverfahren<br />
<br />
== Gleichheitsverfahren ==<br />
<br />
* Vergleiche:<br />
** Vorlage mit additivem Gemisch<br />
** Vorlage mit Farbmusterkarten (DIN-Karten)<br />
* unverzichtbar bei physiologischen Untersuchungen<br />
* aufwendig und bei kleinen Probandengruppen ungenau<br />
* d.h. für technische Messungen ohne Bedeutung<br />
<br />
'''Messbedingungen nach DIN:'''<br />
* helladaptiertes und blendfreies Sehen<br />
* unbunter Messraum<br />
* neutrale Gesichtsfeldumgebung mit gleicher oder etwas kleinerer Leuchtdichte als im Messfeld<br />
* gut ausgeruhtes und neutral gestimmtes Auge<br />
* farbnormalsichtiger Beobachter<br />
<br />
== Spektralverfahren ==<br />
<br />
* zu messende Farbvalenz = Summe spektraler Farbvalenzen<br />
* greift auf gemessene Normspektralwertkurven zurück<br />
<br />
# '''spektrale Messung zur Ermittlung der Farbreizfunktion <math>\varphi (\lambda) </math>'''<br />
#* Selbststrahler: direkte Messung der Strahlungsfunktion <math>\rightarrow \varphi (\lambda)= S (\lambda)</math><br />
#* remittierende Vorlage: Remissionsfunktion der Vorlage messen, d.h. Strahlungsfunktion S ist vorher zu bestimmen und aus <math>\varphi (\lambda)</math> heraus zu rechnen <math>\rightarrow \varphi (\lambda)= \beta (\lambda) \cdot S (\lambda)</math><br />
# '''farbvalenzmetrische Auswertung'''<br />
#* wenn <math>\beta (\lambda)</math> ermittelt wurde, kann jede beliebige (tabellierte) Lichtquelle <math>S^{\ast} (\lambda)</math>eingesetzt werden<br />
#: <math><br />
\begin{bmatrix}<br />
X\\Y\\Z<br />
\end{bmatrix}<br />
= k \cdot<br />
\begin{bmatrix}<br />
\int \bar{x} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{y} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{z} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda<br />
\end{bmatrix}<br />
</math><br />
#* Normierungskonstante k:<br />
#** Selbststrahler: nur Farbwertanteile gefragt, d.h. k ist beliebig<br />
#** Körperfarben: Y für mattweißen Körper = 100, d.h. <math>k=\frac{100}{\int {S(\lambda) \cdot \bar{y}(\lambda) d \lambda}}</math><br />
<br />
'''Messgeometrien:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bildergalerie (45°,8°,Transmission) </span><br />
<br />
* ''45°-Geometrie'': Beleuchtung unter 45° schließt Glanzeinfluss aus <math>\rightarrow</math> Sensor blickt senkrecht auf Probe<br />
* ''8°-Geometrie'': Beleuchtung diffus über Ulbricht-Kugel <math>\rightarrow</math> Sensor blickt unter 8° auf Probe; Messung mit/ohne Glanz möglich<br />
* ''Transmissionsgeometrie'': Probe wird durchleuchtet<br />
<br />
== Dreibereichsverfahren ==<br />
[...]<br />
== Spektralmaskenverfahren ==<br />
[...]<br />
<br />
= Klassifikation von Messaufgaben (GF 82 - 86) =<br />
<br />
# Messung von objektiven Eigenschaften, die sich in der Veränderung spektraler Charakteristika niederschlagen<br />
#* vordergründig ist Zusammenhang zwischen Veränderungen in den physikalischen Eigenschaften von Interesse (z.B. Waferinspektion)<br />
#* Zusammenhang sollte eindeutig und von hinreichender Empfindlichkeit sein<br />
#* Wahrnehmung unterschiedlicher Farben eher Nebeneffekt<br />
# Überwachung der Stabilität von farblichen Erscheinungen<br />
#* ist bei einer oder mehreren Beleuchtungen zu überwachen<br />
#* absolute Farbmessung nicht nötig; "Anlernen" auf Farben genügt<br />
#* Abstände im Farbempfinden müssen sich in gleicher Weise in Veränderungen der Sensorsignale wiederspiegeln<br />
# absolute Farbmessung<br />
#* d.h. Ermittlung der korrekten Farbvalenz unter beliebigen Messbedingungen<br />
#* Spektralwertkurven müssen realisiert werden<br />
# Messung des spektralen Remissions- und/oder Transmissionsverhaltens von Materialien<br />
#* ausschließlich spektrale Messverfahren<br />
#* Messung der Strahlungsfunktion und der remittierten Leistungsdichte<br />
#* Berechnung der Farbvalenz bei beliebiger Beleuchtung und des Metamerie-Index<br />
<br />
'''steigende Ansprüche mit steigender Nummerierung'''<br />
<br />
= Einfache Farbkalibrierung (GF 16 - 41) =<br />
<br />
= Color Management (F CM 1 - 20) =<br />
<br />
= Kameras (GF_Ka 1 - 12) =<br />
<br />
'''Einsatzfelder:'''<br />
* ortsaufgelöste Messung von Farbe<br />
* Aufnahme und Wiedergabe von True-Color Bildern<br />
* Aufnahme farbiger oder mehrkanaliger Bilder für die Verarbeitung/Analyse (Qualitätssicherung)<br />
* Photogrammetrische Anwendungen (Lösung des Korrespondenzproblems)<br />
* Radiometrische Anwendungen (Messen im Spektralbereich)<br />
<br />
'''Dreibereichsmessung:'''<br />
* setzt die Trennung von drei sich überlappenden Spektralbereichen voraus, die dann wellenlängenabhängig zu bewerten und zu integrieren sind<br />
<br />
== Dreichip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* optische Kanaltrennung und Bewertung<br />
* beste Bildqualität, da hohe Auflösung in allen drei Kanälen<br />
* keinen örtlichen Versatz der Pixel in den drei Farbauszügen<br />
* Filter einfacher und präziser zu realisieren<br />
* befinden sich z.B. als dichroitische Spiegel auf den Strahteilerprismen<br />
<br />
<span style="color:#ee0000;"> \\ Hot-Mirror-, Cold-Mirror-Korrektur????</span><br />
<br />
== Einchip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: doppelte Anzahl grüner Pixel wegen Schärfe, MTF des Auges </span><br />
<br />
* örtliche Kanaltrennung und Bewertung<br />
* Streifen- oder Mosaikfilterstrukturen auf den einzelnen Pixeln zur örtlichen Signaltrennung<br />
* 3 oder 4 unterschiedliche spektrale Auszuüge zur Erzeugung der Farbinformation<br />
* Matrix selbst kann Interline- oder Frame-Transfer-Matrix sein<br />
* kostengünstiger und kleiner als Dreichip-Kameras<br />
* Probleme:<br />
** Farbvalenzen aus örtlich versetzten Auszügen (z.B. Farbsäume an Kanten)<br />
** nicht korrigierbare Fehler aus Nichtlinearitäten und Dunkelsignalen bei der Bildung von Mischsignalen<br />
<br />
'''generelle Anforderungen an die Signalverarbeitung:'''<br />
<br />
* primäre Kamerasignale stellen keine farbmetrische Schnittstelle zur Verfügung, d.h. alle Bewertungsfunktionen sind nicht-negativ (Spektralwertkurven fordern aber negative Wichtungen)<br />
* je nach realisierten Filtern und Genauigkeitsansprüchen <math>\rightarrow</math> lineare Matrizierung (meist Kameraintern) oder komplexere Approximation<br />
* bei hohen Genauigkeitsansprüchen <math>\rightarrow</math> Umgehung der Kamerainternen Matrizierung, weil Verstärkungsfaktoren, Toleranzen, Temperaturdrift, Langzeitstabilität etc. nicht bekannt sind<br />
* insgesamt geringe Nichtlinearitäten der CCD's können in den Ansteuerbereichen der einzelnen Kanäle zu wesentlichen Fehlern führen:<br />
** Farbvalenz ändert sich kontinuirlich mit der Shutterzeit<br />
** Pixelweise DSNU- (Dunkelsignalungleichförmigkeit) und PRNU- (Hellsignalungleichförmigkeit) Korrektur vor Erzeugung der Farbvalenz erforderlich, da sich Festmusterrauschen nicht nur auf Intensität sondern auch auf Farbart auswirkt<br />
** Dunkelsignal verdoppelt sich alle 7K, Gleichanteil wird aber geklemmt<br />
** Lichtquellentyp und Langzeitverhalten wirken sich nicht nur Intensität sondern auch auf Farbtemperatur aus<br />
<br />
'''4 spektrale Bereiche:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* vorteilhaft zur Erzeugung von Farbdifferenzsignalen für die TV-Kompatibilität<br />
* im Field-Integration-Mode werden Mischsignale gebildet, die die erforderliche Signalkorrektur für hohe Ansprüche behindern<br />
* Nichtlinearität der Ausgangsverstärker wirkt sich auf Korrektur der primären Mischsignale aus<br />
<br />
== Sequentielle Einchip-Kamera ==<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* zeitliche Kanaltrennung und Bewertung<br />
* relativ genaue Approximation der Spektralwertkurven möglich<br />
<br />
== Elektrisch steuerbare Filter ==<br />
<br />
* über die Wellenlängenabhängigkeit der Eindringtiefe der Photonen und die Steuerbarkeit der Tiefe der Potentialmulden der sensoren lassen sich steuerbare spektrale Empfindlichkeiten erzeugen<br />
<br />
= Verarbeitung von Farbbildern (1 - 31) =<br />
<br />
= Referenzfreie Farbadaption auf Basis des 3D-Histogramms (HuS 32 - 39 ) =<br />
<br />
= Histogrammbasiertes Farbmatching(1 - 15) =<br />
<br />
= Störunterdrückung (SU 1 - 16) =<br />
<br />
= Kantendetektion in Farbbildern (1 - 21) =<br />
<br />
= Farbpixelklassifikation (Farbpixelklassifikation 1 - 21) =<br />
<br />
= Clusterverfahren (Farbpixelklassifikation 19 - 45) =<br />
<br />
= Segmentierung (Seg 1 - 8) =<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Grundlagen_der_Farbbildverarbeitung&diff=6966Grundlagen der Farbbildverarbeitung2009-03-12T13:22:27Z<p>DarkGhost: /* Rezeptive Wahrnehmung */</p>
<hr />
<div>Link zum [http://www.zbs-ilmenau.de/intern/vip-toolkit/index.php Vip toolkit]<br />
= Einführung (GF_a 8 - 47) =<br />
<br />
== Geschichtliches zur Farbe ==<br />
<br />
=== Newton ===<br />
<br />
* 1672: New Theory about Light and Colours<br />
** Sonnenlicht = Mischung einzelner Farben<br />
** Spektralfarben sind objektive Eigenschaft des Lichtes<br />
<br />
[...]<br />
<br />
=== Goethe ===<br />
<br />
[...]<br />
<br />
== Begriff der Farbe ==<br />
<br />
* '''Farbe im engeren Sinn, stellt eine spezielle menschliche Sinneswahrnehmung dar'''<br />
* <math>\Phi_i = \int_{\Delta \lambda_i} \varphi_{\lambda} (\lambda) d \lambda</math><br />
* Leistungsdichte <math>\phi (\lambda)</math> stellt dagegen den Farbreiz dar, der die Farbempfindung hervorruft<br />
* Vektoren <math>\underline \Phi</math> sind je nach Dimension mehr oder minder genaue Approximationen des Farbreizes<br />
<br />
* Orientierung am menschlichen visuellen System und die Betrachtung psychologischer und physiologischer Grundlagen sind von Interesse:<br />
** zur richtigen Bewertung der Schwierigkeiten und Herausforderungen bei der Schaffung technischer Lösungen<br />
** zur Anpassung technischer Lösungen der Bildwiedergabe an das visuelle System<br />
** zur Nutzung optimaler Naturprinzipien für technische Lösungen<br />
** weil technische Systeme im allgemeinen auf dem inneren Modell des Menschen von der Welt beruhen und dieses Modell in hohem Maße durch den visuellen Kanal des Menschen beeinflusst ist<br />
** weil optoelektronische Sensoren, Bildverarbeitung und Bildanalyse wichtige Schnittstellen zwischen Mensch und Maschine darstellen<br />
**weil viele Objekteigenschaften durch visuelle Eindrücke beschrieben werden<br />
<br />
* menschliches Auge kann ca. 100 Graustufen / ca. 300 000 Farben unterscheiden<br />
<br />
* Drei grundsätzliche Anwendungen von Farbinformation:<br />
** Pseudokolorierung<br />
** Falschfarbendarstellung<br />
** Echtfarbdarstellung (True Color) <math>\rarr</math> hier Schwerpunkt<br />
<br />
== Farbtäuschung ==<br />
<br />
* Zuordnung zwischen Physik und Wahrnehmung nur eindeutig wenn bunte Dinge isoliert betrachtet werden<br />
* Werden bunte Objekte in bunte Umgebungen eingebettet/bewegt, dann können abweichende Farbwahrnehmungen auftreten, so genannte Farbtäuschungen<br />
* es existieren unterschiedliche Arten solcher Täuschungen:<br />
** ''Farbinduktion oder simultaner Farbkontrast'' (Farbe wird durch ihre Umgebung modifiziert)<br />
** ''Farbkonflikt'' (es konkurrieren verschiedene Sehinformationen miteinander)<br />
** ''Subjektive Farben'' (es werden bunte Farbtöne wahrgenommen, die nicht vorliegen)<br />
<br />
'''Simultaner Farbkontrast:'''<br />
* erstmals 1839 beschrieben<br />
* wo der Effekt entsteht (Auge, Cortex) ist unklar<br />
<br />
'''Farbinduktion:'''<br />
* bei kleinteiligen, sich wiederholenden Strukturen erfolgt Angleichung<br />
* kann zur Rauschunterdrückung oder zur Unterdrückung von Feintexturen zugunsten der Erkennung größerer Objekte wichtig sein<br />
<br />
'''Farbkonflikt:'''<br />
* Formen und Strukturen konkurrieren mit Farben ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf White'sche Illusion])<br />
<br />
'''Subjektive Farben:'''<br />
* durch Bewegung ist es möglich Farben zu erzeugen die ursprünglich nicht vorhanden waren ([http://www.uni-klu.ac.at/psy/download/illusion-farbe.pdf Drehwurm in Farbe])<br />
<br />
== Farbwahrnehmung beim Menschen ==<br />
<br />
[...]<br />
<br />
=== Rezeptive Wahrnehmung ===<br />
* 1807 stellte Young die Hypothese auf das Farbsehen auf drei Arten von Sinneszellen beruht (rout,grün,blau)<br />
* erst 1964 konnten dies bewiesen werden, durch die Messung der Absorptionsspektren<br />
*[[Datei:Pdt-kurven.svg]]<br />
<br />
=== Postrezeptive Wahrnehmung ===<br />
[...]<br />
<br />
=== Kortikale Kodierung ===<br />
[...]<br />
<br />
== Die Ordnung in der Welt der Farben ==<br />
[...]<br />
<br />
== Das Modell der Farbe ==<br />
[...]<br />
<br />
=== Farbvalenz ===<br />
[...]<br />
<br />
=== Farbreizmetrik ===<br />
[...]<br />
<br />
== Farbanalyse, Zusammenhang mit der Farbwidergabe ==<br />
[...]<br />
<br />
== Subtraktive Farbmischung ==<br />
[...]<br />
<br />
= Farbmetrische Schnittstellen - Farbräume (GF a 49 - 55) =<br />
<br />
<pre><br />
Unterschiedliche bildgebende Systeme<br />
z.B. Farbkameras<br />
Farbscanner<br />
Spezialkameras<br />
</pre><br />
'''Widerspruch''' <math>\updownarrow</math> Farbmetrische Schnittstelle<br />
<pre><br />
Unterschiedliche Bildwiedergabesysteme<br />
"True-Color-Darstellung"<br />
- unterschiedliche Monitore, Beamer, Drucker etc.<br />
</pre><br />
<br />
== Leuchtdichte (Luminanz) ==<br />
<br />
* Luminanz Y ist die Strahlungsleistung, bewertet mit der spektralen Empfindlichkeitsfunktion des Auges für das Hellempfinden<br />
* Y ist Leistungsproportional, wenn Lichtzusammensetzung (Leistungsdichte <math>\Theta (\lambda))</math> konstant bleibt<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* Leuchtdichte berechnet sich nach dem ''Abneyschen Gesetz'':<br />
: <math> Y = L = k \cdot \underline L^T \cdot \underline F </math><br />
:* <math>\underline L^T - </math> Leuchtdichtebeiwert: gibt an wie groß der Beitrag jedes Farbwertes der Farbvalenz zum Helleindruck ist, abhängig vom gewählten Farbwiedergabesystem<br />
* Leuchtdichte L <math>\ne</math> Intensität I<br />
: <math> I = \frac 1 3 (R+G+B)</math><br />
<br />
* die perzeptuelle Antwort unseres Auges auf die Leuchtdichte wird Helligkeit (Lightness) genannt<br />
: <math><br />
L^{\star} = \begin{cases}<br />
116 \cdot \sqrt [3] {\frac Y {Y_n}} -16, & \text{wenn } \frac Y {Y_n} > 0{,}008856\\<br />
903{,}3 \cdot {\frac Y {Y_n}}, & \text{wenn } \frac Y {Y_n} \le 0{,}008856<br />
\end{cases}<br />
</math><br />
<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: Eine Quelle die nur 18% der Luminanz einer Referenz hat, erscheint uns immer noch halb so hell wie die Referenz </span><br />
<br />
== Gammakorrektur und Luma ==<br />
<br />
'''Gammakorrektur:'''<br />
<br />
'''Luma:'''<br />
<br />
== Farbsysteme, Farbräume, reduzierte Farbräume ==<br />
<br />
= Das Normvalenz- oder XYZ-System (GF a 76 - 86) =<br />
<br />
= Farbmessung (GF 1 - 11) =<br />
<br />
* Farbmessung = Ermittlung der drei zu einer Farbvalenz gehörigen Farbmaßzahlen<br />
* 3 Messmethoden: <br />
** Vergleichsmethode oder Gleichheitsverfahren<br />
** Spektralverfahren<br />
** Dreibereichsverfahren<br />
<br />
== Gleichheitsverfahren ==<br />
<br />
* Vergleiche:<br />
** Vorlage mit additivem Gemisch<br />
** Vorlage mit Farbmusterkarten (DIN-Karten)<br />
* unverzichtbar bei physiologischen Untersuchungen<br />
* aufwendig und bei kleinen Probandengruppen ungenau<br />
* d.h. für technische Messungen ohne Bedeutung<br />
<br />
'''Messbedingungen nach DIN:'''<br />
* helladaptiertes und blendfreies Sehen<br />
* unbunter Messraum<br />
* neutrale Gesichtsfeldumgebung mit gleicher oder etwas kleinerer Leuchtdichte als im Messfeld<br />
* gut ausgeruhtes und neutral gestimmtes Auge<br />
* farbnormalsichtiger Beobachter<br />
<br />
== Spektralverfahren ==<br />
<br />
* zu messende Farbvalenz = Summe spektraler Farbvalenzen<br />
* greift auf gemessene Normspektralwertkurven zurück<br />
<br />
# '''spektrale Messung zur Ermittlung der Farbreizfunktion <math>\varphi (\lambda) </math>'''<br />
#* Selbststrahler: direkte Messung der Strahlungsfunktion <math>\rightarrow \varphi (\lambda)= S (\lambda)</math><br />
#* remittierende Vorlage: Remissionsfunktion der Vorlage messen, d.h. Strahlungsfunktion S ist vorher zu bestimmen und aus <math>\varphi (\lambda)</math> heraus zu rechnen <math>\rightarrow \varphi (\lambda)= \beta (\lambda) \cdot S (\lambda)</math><br />
# '''farbvalenzmetrische Auswertung'''<br />
#* wenn <math>\beta (\lambda)</math> ermittelt wurde, kann jede beliebige (tabellierte) Lichtquelle <math>S^{\ast} (\lambda)</math>eingesetzt werden<br />
#: <math><br />
\begin{bmatrix}<br />
X\\Y\\Z<br />
\end{bmatrix}<br />
= k \cdot<br />
\begin{bmatrix}<br />
\int \bar{x} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{y} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda\\<br />
\int \bar{z} (\lambda) \cdot \beta (\lambda) \cdot S^{\ast}(\lambda) d \lambda<br />
\end{bmatrix}<br />
</math><br />
#* Normierungskonstante k:<br />
#** Selbststrahler: nur Farbwertanteile gefragt, d.h. k ist beliebig<br />
#** Körperfarben: Y für mattweißen Körper = 100, d.h. <math>k=\frac{100}{\int {S(\lambda) \cdot \bar{y}(\lambda) d \lambda}}</math><br />
<br />
'''Messgeometrien:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bildergalerie (45°,8°,Transmission) </span><br />
<br />
* ''45°-Geometrie'': Beleuchtung unter 45° schließt Glanzeinfluss aus <math>\rightarrow</math> Sensor blickt senkrecht auf Probe<br />
* ''8°-Geometrie'': Beleuchtung diffus über Ulbricht-Kugel <math>\rightarrow</math> Sensor blickt unter 8° auf Probe; Messung mit/ohne Glanz möglich<br />
* ''Transmissionsgeometrie'': Probe wird durchleuchtet<br />
<br />
== Dreibereichsverfahren ==<br />
[...]<br />
== Spektralmaskenverfahren ==<br />
[...]<br />
<br />
= Klassifikation von Messaufgaben (GF 82 - 86) =<br />
<br />
# Messung von objektiven Eigenschaften, die sich in der Veränderung spektraler Charakteristika niederschlagen<br />
#* vordergründig ist Zusammenhang zwischen Veränderungen in den physikalischen Eigenschaften von Interesse (z.B. Waferinspektion)<br />
#* Zusammenhang sollte eindeutig und von hinreichender Empfindlichkeit sein<br />
#* Wahrnehmung unterschiedlicher Farben eher Nebeneffekt<br />
# Überwachung der Stabilität von farblichen Erscheinungen<br />
#* ist bei einer oder mehreren Beleuchtungen zu überwachen<br />
#* absolute Farbmessung nicht nötig; "Anlernen" auf Farben genügt<br />
#* Abstände im Farbempfinden müssen sich in gleicher Weise in Veränderungen der Sensorsignale wiederspiegeln<br />
# absolute Farbmessung<br />
#* d.h. Ermittlung der korrekten Farbvalenz unter beliebigen Messbedingungen<br />
#* Spektralwertkurven müssen realisiert werden<br />
# Messung des spektralen Remissions- und/oder Transmissionsverhaltens von Materialien<br />
#* ausschließlich spektrale Messverfahren<br />
#* Messung der Strahlungsfunktion und der remittierten Leistungsdichte<br />
#* Berechnung der Farbvalenz bei beliebiger Beleuchtung und des Metamerie-Index<br />
<br />
'''steigende Ansprüche mit steigender Nummerierung'''<br />
<br />
= Einfache Farbkalibrierung (GF 16 - 41) =<br />
<br />
= Color Management (F CM 1 - 20) =<br />
<br />
= Kameras (GF_Ka 1 - 12) =<br />
<br />
'''Einsatzfelder:'''<br />
* ortsaufgelöste Messung von Farbe<br />
* Aufnahme und Wiedergabe von True-Color Bildern<br />
* Aufnahme farbiger oder mehrkanaliger Bilder für die Verarbeitung/Analyse (Qualitätssicherung)<br />
* Photogrammetrische Anwendungen (Lösung des Korrespondenzproblems)<br />
* Radiometrische Anwendungen (Messen im Spektralbereich)<br />
<br />
'''Dreibereichsmessung:'''<br />
* setzt die Trennung von drei sich überlappenden Spektralbereichen voraus, die dann wellenlängenabhängig zu bewerten und zu integrieren sind<br />
<br />
== Dreichip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* optische Kanaltrennung und Bewertung<br />
* beste Bildqualität, da hohe Auflösung in allen drei Kanälen<br />
* keinen örtlichen Versatz der Pixel in den drei Farbauszügen<br />
* Filter einfacher und präziser zu realisieren<br />
* befinden sich z.B. als dichroitische Spiegel auf den Strahteilerprismen<br />
<br />
<span style="color:#ee0000;"> \\ Hot-Mirror-, Cold-Mirror-Korrektur????</span><br />
<br />
== Einchip-Kameras ==<br />
<span style="color:#ee0000;"> \\ Bild mit Kommentar: doppelte Anzahl grüner Pixel wegen Schärfe, MTF des Auges </span><br />
<br />
* örtliche Kanaltrennung und Bewertung<br />
* Streifen- oder Mosaikfilterstrukturen auf den einzelnen Pixeln zur örtlichen Signaltrennung<br />
* 3 oder 4 unterschiedliche spektrale Auszuüge zur Erzeugung der Farbinformation<br />
* Matrix selbst kann Interline- oder Frame-Transfer-Matrix sein<br />
* kostengünstiger und kleiner als Dreichip-Kameras<br />
* Probleme:<br />
** Farbvalenzen aus örtlich versetzten Auszügen (z.B. Farbsäume an Kanten)<br />
** nicht korrigierbare Fehler aus Nichtlinearitäten und Dunkelsignalen bei der Bildung von Mischsignalen<br />
<br />
'''generelle Anforderungen an die Signalverarbeitung:'''<br />
<br />
* primäre Kamerasignale stellen keine farbmetrische Schnittstelle zur Verfügung, d.h. alle Bewertungsfunktionen sind nicht-negativ (Spektralwertkurven fordern aber negative Wichtungen)<br />
* je nach realisierten Filtern und Genauigkeitsansprüchen <math>\rightarrow</math> lineare Matrizierung (meist Kameraintern) oder komplexere Approximation<br />
* bei hohen Genauigkeitsansprüchen <math>\rightarrow</math> Umgehung der Kamerainternen Matrizierung, weil Verstärkungsfaktoren, Toleranzen, Temperaturdrift, Langzeitstabilität etc. nicht bekannt sind<br />
* insgesamt geringe Nichtlinearitäten der CCD's können in den Ansteuerbereichen der einzelnen Kanäle zu wesentlichen Fehlern führen:<br />
** Farbvalenz ändert sich kontinuirlich mit der Shutterzeit<br />
** Pixelweise DSNU- (Dunkelsignalungleichförmigkeit) und PRNU- (Hellsignalungleichförmigkeit) Korrektur vor Erzeugung der Farbvalenz erforderlich, da sich Festmusterrauschen nicht nur auf Intensität sondern auch auf Farbart auswirkt<br />
** Dunkelsignal verdoppelt sich alle 7K, Gleichanteil wird aber geklemmt<br />
** Lichtquellentyp und Langzeitverhalten wirken sich nicht nur Intensität sondern auch auf Farbtemperatur aus<br />
<br />
'''4 spektrale Bereiche:'''<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* vorteilhaft zur Erzeugung von Farbdifferenzsignalen für die TV-Kompatibilität<br />
* im Field-Integration-Mode werden Mischsignale gebildet, die die erforderliche Signalkorrektur für hohe Ansprüche behindern<br />
* Nichtlinearität der Ausgangsverstärker wirkt sich auf Korrektur der primären Mischsignale aus<br />
<br />
== Sequentielle Einchip-Kamera ==<br />
<br />
<span style="color:#ee0000;"> \\ Bild </span><br />
<br />
* zeitliche Kanaltrennung und Bewertung<br />
* relativ genaue Approximation der Spektralwertkurven möglich<br />
<br />
== Elektrisch steuerbare Filter ==<br />
<br />
* über die Wellenlängenabhängigkeit der Eindringtiefe der Photonen und die Steuerbarkeit der Tiefe der Potentialmulden der sensoren lassen sich steuerbare spektrale Empfindlichkeiten erzeugen<br />
<br />
= Verarbeitung von Farbbildern (1 - 31) =<br />
<br />
= Referenzfreie Farbadaption auf Basis des 3D-Histogramms (HuS 32 - 39 ) =<br />
<br />
= Histogrammbasiertes Farbmatching(1 - 15) =<br />
<br />
= Störunterdrückung (SU 1 - 16) =<br />
<br />
= Kantendetektion in Farbbildern (1 - 21) =<br />
<br />
= Farbpixelklassifikation (Farbpixelklassifikation 1 - 21) =<br />
<br />
= Clusterverfahren (Farbpixelklassifikation 19 - 45) =<br />
<br />
= Segmentierung (Seg 1 - 8) =<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Datei:Pdt-kurven.svg&diff=6965Datei:Pdt-kurven.svg2009-03-12T13:16:31Z<p>DarkGhost: PDT-Kurven</p>
<hr />
<div>PDT-Kurven</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=TODO_9.Semester&diff=6964TODO 9.Semester2009-03-12T10:01:28Z<p>DarkGhost: </p>
<hr />
<div>__NOTOC__<br />
{{Navigation<br />
|zurücktext=8. Semester<br />
|zurücklink=TODO 8.Semester<br />
|hochtext=Liste der TODOs<br />
|hochlink=TODO<br />
}}<br />
==Vertiefungsfächer==<br />
<br />
===IHS===<br />
* [[Interfacetechnik]] bei [http://www.tu-ilmenau.de/fakia/Interfacetechnik.5279.0.html Dr.-Ing. Todor Vangelov]<br />
* [[embedded C und C++]] bei [http://www.tu-ilmenau.de/fakei/embedded-c-c.2039.0.html Dr.-Ing. Steffen Arlt]<br />
* [[Hardwaredesign]] bei [http://wcms1.rz.tu-ilmenau.de/fakei/Hardwaredesign.8436.0.html Dr.-Ing. Steffen Arlt]<br />
<br />
===IKIS===<br />
* [[2D-Systemtheorie]] bei [http://www.e-technik.tu-ilmenau.de/EI/ATE/get/Bildverarbeitung/html/ausbildung02.html Dr. F. Schmidt]<br />
* [[Erfassung und Verarbeitung dreidimensionaler Daten]] bei [http://kb-bmts.rz.tu-ilmenau.de/Franke/Lehre1.htm#EV 3D-Daten Dr. Franke]<br />
* [[Multimodale Mensch-Maschine-Kommunikation]] bei [http://www.tu-ilmenau.de/fakia/Mensch-Maschine-Komm.8419.0.html Prof. Groß]<br />
* [[Robotvision]] bei [http://www.tu-ilmenau.de/fakia/Robotvision-Neurok.8420.0.html Prof. Groß]<br />
* [[Grundlagen der Bildverarbeitung und Mustererkennung]] bei [http://kb-bmts.rz.tu-ilmenau.de/Franke/Lehre1.htm#GBV+ME Dr. Franke]<br />
<br />
===MIKS===<br />
*[[Adaptive and Array Signal Processing]] bei [http://www4.tu-ilmenau.de/nt/de/teachings/vorlesungen/anwendungen_der_systemtheorie/index.html Prof. Haardt]<br />
*[[Advanced Networking Technologies]] bei [http://www.tu-ilmenau.de/fakia/Advanced-Networking.advancednetworking.0.html Prof. Schäfer]<br />
*[[Bedienungs- und Verkehrstheorie]] bei [http://wcms1.rz.tu-ilmenau.de/fakei/Folien-Bedienungs-u.8353.0.html Prof. Seitz]<br />
*[[Multimediale Mensch-Maschine-Kommunikation]] bei [http://www.tu-ilmenau.de/fakia/Mensch-Maschine-Komm.8419.0.html Prof. Groß]<br />
*[[UMTS Netze]] bei [http://www.tu-ilmenau.de/fakia/index.php?3254&veranstaltung_id=14&erweitert=0&L=0 Prof. Mitschele-Thiel]<br />
<br />
Komplex 2:<br />
<br />
* [[Robotvision]] bei [http://www.tu-ilmenau.de/fakia/Robotvision-Neurok.6673.0.html Prof. Groß]<br />
<br />
Komplex 3:<br />
*[[Multimedia Information Retrieval]] bei [http://www.tu-ilmenau.de/fakia/Multimedia-Informati.8393.0.html Dr. Horn]<br />
* [[Network Security]] bei [http://www.tu-ilmenau.de/fakia/Network-Security.networksecurity2.0.html Prof. Dr.-Ing. Günter Schäfer]<br />
*[[Planung und Verwaltung von Kommunikationsnetzen]] bei [http://wcms1.rz.tu-ilmenau.de/fakei/Folien-Planung-und-V.10387.0.html Prof. Seitz]<br />
*[[Verteilte Echtzeit- und Multimediasysteme]] bei [http://www.tu-ilmenau.de/fakia/VEMMS.6494.0.html Dr. H.-A. Schindler]<br />
<br />
<br />
===Systemtechnik===<br />
<br />
===Wirtschaftsfächer===<br />
<br />
==Sonstiges==<br />
<br />
Bis vor kurzem war die Aussage des Prüfungsamtes bei Leuten, die wissen wollen, was ihnen noch an Leistungen fehlt die, dass man einfach den Antrag zur Erstellung des Diploms ausfüllen soll, alles abgeben und die schauen sich das an und sagen dann bescheid. Allerdings ist dieser Antrag noch von den IIlern ab M98 und trifft für uns nimmer zu. Daher lautet die aktuelle Aussage des PA wie folgt:<br />
<br />
"Sehr geehrter Herr Lettau,<br />
wir haben heute über ein '''neues Formular für II M04''' diskutiert und sind zu dem Entschluß gekommen, dass wir '''k e i n''' neues Formular ausarbeiten werden, weil es nur für einen Jahrgang ist.<br />
Jeder Student möchte in einer Klarsichtfolie a l l e seine "Scheine", die er ab dem 5. Fachsemester erhalten hat, bei uns im Zimmer KB 1039 abgeben. An den Tagen, wenn das Prüfungsamt geschlossen hat, kontrollieren wir alle eingegangenen Unterlagen.<br />
Bitte eine Telefon-Nummer Handy oder Festnetz) '''n i c h t''' vergessen, damit wir bei Rückfragen oder, ob alles o. k. ist, die Studenten noch einmal anrufen können, um alles abzuklären.<br />
Mit freundlichem Gruß<br />
E. Hartmann, Prüfungsamt"<br />
<br />
:Also ich war in den Ferien mal im Prüfungsamt und wollte schauen ob irgendwelche Scheine zur Abholung da sind. Wie das so ist hat sich die Dame gleich alle meine Leistungen in der Akte angeschaut (is son blauer Zettel) und sie hat auch gleich die ganzen SWS zusammengerechnet und mir gesagt was noch fehlt. Die zwei Scheine die da waren durfte ich nicht mehr mitnehmen, sie meinte ich solle alle Scheine die ich noch zu hause hab abgeben, damit sie die Übersicht mit den Leistungen vervollständigen können, da ich ja so gut wie alles fürs Diplom zusammen habe.<br />
:Was will ich damit sagen: Wenn die Damen im PA Langeweile haben machen sie die Übersicht auch mal schnell wenn man oben ist ;) Auch wenn man genau weiß was man hat/was noch fehlt ^^ [[Benutzer:Schoni|Schoni]] 15:25, 5. Okt. 2008 (UTC)<br />
::Jo, den blauen Zettel hat'se bei mir auch ausgepackt, aber nur schnell drübergeflogen und mir die wichtigsten, auffälligen Sachen gesagt, z.B. dass mein Sprachenschein angeblich noch fehlt und ich noch keine SJA habe. Hängt also anscheinend arg davon ab, wie viel Zeit und Lust die Mädels haben, bzw. wie viel Leute noch draußen warten. [[Benutzer:Pale|Pale]] 18:21, 5. Okt. 2008 (UTC)<br />
<br />
=== Diplomantrag ===<br />
Ich war heute im PA und hab mir mal erklären lassen wie man den Antrag richtig ausfüllt. Die dabei entstandene Vorlage findet ihr<br />
[[:Bild:Diplomarbeit.pdf| hier]]. Wichtig ist das, das Abgabe Datum mit angegeben wird, welches sich aus Ausgabe Datum + 6 Monate berechnet. Sollte der Tag an einem WE liegen dann tragt ihr den nächsten Werktag ein. Nach Aussage der PA Damen ist die Abgabe der Diplomarbeit ist frühstens 4 Wochen vor diesem Termin möglich. Bei externen Arbeiten die ausführliche Beschreibung des Themas nicht vergessen! Diese muss vom betrieblichen Betreuer Unterschrieben werden. Spätestens 4 Wochen nach Abgabe erhaltet ihr dann das Diplomverfahren, das gibt es aber auch nicht früher weil das die Studenten immer verbummelt haben (Nach Aussage von Frau Hartmann).<br />
Alle notwendigen Unterlagen findet ihr unter [http://www.tu-ilmenau.de/fakia/Formulare-Checklis.5518.0.html Formulare/Checklisten] auf der PA Seite.<br />
--DarkGhost 10:01, 12. Mär. 2009 (UTC)<br />
<br />
*[https://www.imt.tu-ilmenau.de/lehre/eE_WS08/lstr_browser.php Einschreibebrowser WS08]<br />
*[http://www.tu-ilmenau.de/uni/index.php?id=1149&funccall=1&vers=graph&sgkurz=II&studiengang=Ingenieurinformatik&fs=9.FS&sggruppe=&woche=alle Vorlesungsverzeichnis WS08]<br />
<br />
[[Kategorie:Studium]]</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Datei:Diplomarbeit.pdf&diff=6963Datei:Diplomarbeit.pdf2009-03-12T09:44:44Z<p>DarkGhost: Vorlage zum Ausfüllen des Diplomantrags</p>
<hr />
<div>Vorlage zum Ausfüllen des Diplomantrags</div>DarkGhosthttps://wikiii.de/w_iki/index.php?title=Grundlagen_der_Bildverarbeitung_und_Mustererkennung&diff=6942Grundlagen der Bildverarbeitung und Mustererkennung2009-03-10T10:55:15Z<p>DarkGhost: /* Binomialfilter */</p>
<hr />
<div>= Folien aus der Vorlesung =<br />
<hiddenlogin linktext="Passwort für die Folien">gdlmu</hiddenlogin><br />
<br />
[[:Bild:GdlmVL1.pdf|Vorlesung 1]]<br />
[[:Bild:GdlmVL2.pdf|Vorlesung 2]]<br />
[[:Bild:GdlmVL3.pdf|Vorlesung 3]]<br />
[[:Bild:GdlmVL4.pdf|Vorlesung 4]]<br />
[[:Bild:GdlmVL5 pw.pdf|Vorlesung 5]]<br />
[[:Bild:GdlmVL6 pw.pdf| Vorlesung 6]]<br />
[[:Bild:GdlmVL7.pdf| Vorlesung 7]]<br />
[[:Bild:GdlmVL8.pdf| Vorlesung 8]]<br />
[[:Bild:GdlmVL9.pdf| Vorlesung 9]]<br />
[[:Bild:GdlmVL10.pdf| Vorlesung 10]]<br />
[[:Bild:GdlmVL11.pdf| Vorlesung 11]]<br />
[[:Bild:GdlmVL12.pdf| Vorlesung 12]]<br />
[[:Bild:GdlmVL13.pdf| Vorlesung 13]]<br />
[[:Bild:GrdlmVL14 a.pdf| Vorlesung 14 Teil 1]]<br />
[[:Bild:GrdlmVL14 b.pdf| Vorlesung 14 Teil 2]]<br />
[[:Bild:GdlmVL15.pdf| Vorlesung 15]]<br />
<br />
= Einführung und Vorbemerkungen (WTE 8 - 24) =<br />
<br />
= Primäre Wahrnehmung (PWa 1 - 22) =<br />
<br />
* digitale Bildverarbeitung setzt Umsetzung von 2D-Strahlungsverteilungen in elektrische Signale voraus<br />
* bei der Primärwahrnehmung erfolgt bereits beträchtliche Reduzierung der Information<br />
** Beschränkung der örtlichen Auflösung <math>\rightarrow</math> Feinstrukturen nicht mehr sichtbar (PSF,MTF)<br />
** Diskretisierung des Definitionsbereichs <math>\rightarrow</math> Rasterung, Abtastung, Aliasing<br />
** Diskretisierung des Wertevorrats <math>\rightarrow</math> AD-Wandlung, Triggerung, Quantisierung<br />
** Beschränkung des Spektralbereichs<br />
<br />
== Strahlung, Bestrahlung, Licht, Beleuchtung ==<br />
<br />
=== Radiometrische Größen ===<br />
<br />
* radiometrische Größen: absolute Bewertung elektromagnetischer Stahlung (strahlungsphysikalisch)<br />
* photometrische Größen: drücken spezifische Einwirkung der Lichtstrahlung auf das menschliche Auge über ein Vergleichsnormal aus<br />
* Umrechnung von radiometrischen in photometrische Größen erfordert Kenntnis der spektralen Zusammensetzung der Strahlung <br />
* Das Auge nimmt Leuchtdichten als photometrisches Äquivalent der Strahldichte war<br />
* Messtechnisch: wellenlängenabhängige Bewertung durch Filter<br />
<br />
'''Raumwinkel:'''<br />
<br />
* Der Raumwinkel <math>\omega</math> einer Fläche <math>A</math> ist die Zentralprojektion dieser Fläche auf die um den Beobachtungspunkt gelegte Einheitskugel<br />
: <math>d \omega = \frac{dA}{r^2} \cdot \omega_0 = \omega_0 \cdot \sin \gamma \cdot d \gamma \cdot d \delta</math><br />
<br />
* Der Winkel zwischen Geraden und Ebenen ist als Streckenabschnitt auf dem Umfang des Einheitskreises definiert<br />
* Der Raumwinkel wird analog definiert nur das es sich jetzt um einen Flächenauschnitt auf der Einheitskugel handelt<br />
* Der Wertebereich des Raumwinkels liegt zwischen 0 und <math> 4 \pi </math> (gesamte Oberfläche der Einheitskugel)<br />
<br />
'''Strahlungsphysikalische Größen:'''<br />
<br />
* sind vom menschlichen Auge unabhängige physikalische Größen<br />
<br />
{| {{Prettytable}}<br />
! || Zeichen || Beschreibung || Formel || Einheit<br />
|-<br />
| Strahlungsfluss || <math>\Phi_e</math> || im Zeitmittel pro Zeiteinheit durch die Fläche hindurchgehende Energie || || <math>W</math><br />
|-<br />
| Strahlungsmenge || <math>Q_e</math> || || <math>Q_e = \int \Phi_e \cdot dt</math> || <math>Ws</math><br />
|}<br />
<br />
'''Beschreibung von Strahlungsquellen:'''<br />
<br />
{| {{Prettytable}}<br />
! || Zeichen || Beschreibung || Formel || Einheit<br />
|-<br />
| Strahlstärke || <math>I_e</math> || ist der in ein Raumwinkelelement<br />
einfallende Strahlungsanteil<br />
|| <math>I_e = \frac{d \Phi_e}{d \omega}</math> || <math>\frac{W}{sr}</math><br />
|-<br />
| Strahldichte || <math>L_e</math> || Flächenbezug des Strahlungsanteils<br />
der von einem Punkt ausgeht<br />
|| ''Senkrecht zum Flächenelement:''<br />
<math> L_{e0} = \frac{d I_{e0}}{d A_{St}}</math><br />
<br />
''schräge Blickrichtung:''<br />
<br />
<math>L_{e \epsilon} = \frac{d I_{e0}}{d A_{St} \cdot \cos \epsilon} = \frac{d^2 \Phi_{e \epsilon}}{d A_{St} \cdot \cos \epsilon \cdot d \omega}</math> <br />
|| <math>\frac{W}{sr \cdot m^2}</math><br />
|-<br />
| Lambert-Strahler || <math>dI_{\epsilon , Lambert}</math> || ideal diffus strahlende Fläche || <math>dI_{\epsilon , Lambert} = L_{e0} \cdot d A_{St} \cdot \cos \epsilon = d I_{e0} \cdot \cos \epsilon</math> || <math>\frac{W}{sr}</math><br />
|}<br />
<br />
'''Bestrahlte Flächen:'''<br />
<br />
{| {{Prettytable}}<br />
! || Zeichen || Beschreibung || Formel || Einheit<br />
|-<br />
| Bestrahlungsstärke || <math>E_e</math> || '''Radiometrisches'''<br />
'''Entfernungsgesetz'''<br />
|| ''senkrechtes Auftreffen der Strahlung:''<br />
<math>E_{e0} = \frac{d \Phi_e}{dA_E}</math> <br />
<br />
''schräg auftreffende Strahlung:''<br />
<br />
<math>dE = \frac{d I}{r^2} \cdot \cos \alpha \cdot \omega_0 </math><br />
|| <math>\frac{W}{m^2}</math><br />
|-<br />
| '''Radiometrisches Grundgesetz''' || <math>d^2\Phi_e</math> || Konkretisierung des<br />
radiometrischen<br />
<br />
Entfernungsgesetzes<br />
|| <math>d^2\Phi_e = \frac{L_e \cdot \omega_0}{r^2} \cdot \cos \alpha \cdot \cos \epsilon \cdot d A_{St} \cdot dA_E </math> <br />
|| <math>W</math><br />
|}<br />
<br />
=== Photometrische Größen ===<br />
* unter Berücksichtigung der Menschlichenwahrnehmung bewertete Größen<br />
* Die Umrechnung von radiometrischen Größen in photometrische Größen kann nur monocromatisch erfolgen da jede Wellenlänge mit der Wahrnehmungskurve des Auges gewichtet werden muss<br />
* dazu ist die Kenntnis der Leistungsdichte notwendig<br />
** Kann berechnet werden (bei Temperaturstrahlern nach Planckschem Strahlungsgesetz)<br />
** Muss mit einem geeigneten Sensor erfasst werden<br />
<br />
= Bildtransformationen, -repräsentationen - Grundlagen (BR 1 - 27) =<br />
<br />
== Bildrepräsentation ==<br />
* alle Werte eines Signals lassen sich durch Wichtung von orthogonalen Basisvektoren darstellen<br />
** Die für einen Wert notwendigen Gewichte kann man durch Projektion dieses Wertes auf die Basisvektoren ermitteln (inneres Produkt der Vektoren bilden)<br />
* Jedes Bild lässt sich somit aus orthogonalen Basisbildern zusammensetzen<br />
** Die Basisbilder haben die gleichen Abmessungen wie das gewünschte Bild<br />
** Die Fourier Transformation ist lediglich die Umwandlung zwischen zwei verschiedenen Basisbildertypen<br />
*** Basisbilder setzen sich aus Sinus und Cosinus Schwingungen zusammen die beliebig orientiert sein können<br />
*** Eigenschaften: Mittelwert ist Rotations- und Translationsinvariant, Verschiebungssatz, Faltung ←→ Multiplikation, Drehung ←→ Drehung, Abtastung ←→ Periodifizierung<br />
** Cos bzw Sin Transformation<br />
*** Basisbilder setzen sich aus zwei senkrecht aufeinanderstehenden Cos bzw. Sinus Schwingungen zusammen<br />
** Hadamard bzw Haar- Transformation<br />
*** Basisbilder setzen sich aus orthogonalen Binärfunktionen zusammen<br />
*** Bei der Haar-Transformation werden aufgrund der lokalen Basismuster lokale Strukturen besser abgebildet<br />
<br />
== Bildpyramiden ==<br />
* Siehe auch [[Robotvision#Auflösungspyramiden|Auflösungsprymiden in RoboVis]]<br />
* Bilder werden in verschiedenen Auflösungen betrachtet<br />
* Ziele:<br />
** Überwindung der lokalen Sicht der meisten Operatoren<br />
** Anwendung kleiner Operatoren ist wesentlich schneller als große Operatoren<br />
* Abtasttheorem muss beachtet werden → Tiefpassfilterung vor jeder Verkleinerung<br />
* Laplace-Pyramiden können genutzt werden um die Informationsunterschiede zwische den beiden Auflösungen zu speichern um so das Bild aus einer kleineren Auflösung rekonstruieren zu können (Komprimierte Speicherung der Bilder)<br />
** Dafür müssen die Bilder vor der Differenzbildung gleich groß gemacht werden → Interpolation der Fehlenden Pixel notwendig<br />
** Siehe auch Interpolation und Resampling<br />
<br />
= Primäre Wahrnehmung - Grenzen der örtlichen Auflösung(PWb 1 - 18) =<br />
* Begrenzung erfolgt durch<br />
** Beugungserscheinungen an den Blenden<br />
** Abbildungsfehler<br />
** Durch den Sensor (endliche kleine Sensorflächen)<br />
<br />
== PSF - Point Spread Function ==<br />
* Punktantwort des Systems<br />
* OTF (Optische Transferfunktion) ist die Fouriertrasnformierte der PSF<br />
* Der Betrag der OTF ist die MTF (Modulationstransferfunktion)<br />
* Die Aufglösungsgrenze ist erreicht wenn die MTF auf 10% das Maximums abgesunken ist<br />
* Die PSF wird mit dem Bild im Ortsbereich gefaltet → Wichtung der Frequenzen im Frequenzbereich → "Modulation"<br />
* Das Auge hat Bandpasscharakter<br />
** zu langsame Änderungen werden nicht wahrgenommen genausowenig wie zu schnelle Änderungen<br />
** Bei gesättigten Farben ist die Empfindluchkeit des Auges schlechter als z.B. bei Grauwerten<br />
<br />
== Sensorapertur ==<br />
* Bildsignal ist im eine kontinuierliche zweidimensionale Funktion<br />
* Abtastung des Bildes durch den Sensor mit endlichgroßen Aufnahmeflächen<br />
** Faltung des Bildes mit Sensoraptertur<br />
** anschließende Abtastung an den Pixelmitten<br />
* Das führt zur Wichtung der Frequenzen mit einer si-Funktion (sinc beim Franke !!) und anschließender Periodifizierung des Bildfrequenzspektrums<br />
** bei nicht aussreichender Bandbegrenzung führt das zu Aliasing<br />
** Originalbild kann mit Hilfe der si-Interpolation wiedergewonnen werden (Multiplikation mit einem Rechteck im Frequenzbereich)<br />
<br />
= Farbe (GF 1 - 69) =<br />
<br />
= Farbmessung (GF_FM 1 - 18) =<br />
<br />
= Farbräume (F_CM 1 - 20) =<br />
<br />
= Kameras (GF_Ka 1 - 12) =<br />
<br />
= Bildvorverarbeitung (GT 1 - 33) =<br />
* Bilder sind meist stark gestört<br />
* Mögliche Ursachen für Störungen sind:<br />
** Inhomogene Beleuchtung<br />
** Verunreinigungen in der Kamera (Streulicht und ähnliches)<br />
** Nicht perfekte Optik (Randabfall, Verzerrungen)<br />
** Nichlinearitäten des Bildsensors (Vorallem beim CMOS und Röhren)<br />
** Rauschen der Elektronik<br />
** Einkopplungen <br />
* Ziel der Bildvorverarbeitung ist es:<br />
** Normierung des Graustufen und Bildgeometrie<br />
** Korrektur und Unterdrückung der Störungen<br />
** Extraktion von Merkmalen für die Steuerung/ Parametrisierung von Algorithmen<br />
** Erzielen von Invarianzeingenschaften<br />
<br />
== Geometrische Bildtransformation ==<br />
* Ziel ist es das entzerrte Zielbild aus einem verzerrten Quellbild zu erhalten<br />
* Wenn die Verzerrungseigenschaften des Systems bekannt sind kann die Transformation analytisch Beschrieben werden<br />
* Bei unbekannten Verzerrungseingeschaften muss die Transformationsfunktion approximiert werden<br />
** Passiert meist mit polynimialen Ansätzen<br />
** Markieren von Passpunkten für die Approximation<br />
* Vorwärtstransformation<br />
** Das Zielbild wird direkt aus dem Quellbildberechnet in dem jedes Pixel des Quellbildes durchgegangen wird und ins Zielbild übertragen wird<br />
** Problem ist das im Zielbild "Lücken" entstehen können aufgrund von Rundung der transformierten Koordinaten<br />
* Rückwärtstransformation<br />
** Das Zielbild wird aus dem Quellbild berechnet in dem jedes Pixel im Zielbild durchgegangen wird und geschaut wird welcher wert aus dem Quellbild eingetragen werden muss<br />
** Es entstehen keine Lücken mehr im Zielbild<br />
** Die zurücktransformierten Koordinaten müssen nicht genau auf ein Pixel im Quellbild treffen → Interpolation der Pixelwerte notwendig<br />
<br />
== Interpolationsverfahren zum Resampling ==<br />
* gegeben ist ein Bild mit diskreten werten an bestimmten stellen<br />
* Gesucht sind nun Werte an beliebigen stellen → als Wiederabtastung oder auch Resampling bezeichnet<br />
* Dabei soll für die Interpolationsfunktion gelten das sollte genau ein Abtastwert getroffen werden so darf nur dieser den Wert des Zielpixels bestimmen<br />
<br />
=== Ideale Interpolationsfunktion ===<br />
* Wenn das Originalbild hinreichend Bandbegrenzt war läßt sich mit Hilfe von einer Summe si-Funktionen das koninuierliche Originalbild rekonstruieren<br />
* Dazu wird in dem unendlichgroßen Bild auf jedes Pixel eine si-Funktion gesetzt mit dem gewicht des Grauwertes an dieser Stelle<br />
* Multiplikation des Spektrums des Bildes mit einem Rechteck ... Rückgängigmachen der Periodifizierung durch die Abtastung<br />
<br />
=== Nearest Neighbour Resampling ===<br />
* wähle den nächsten Nachbarn als Funktionswert an dieser Stelle<br />
* Führt zu Artefakten da der Funktionswert schlichtweg falsch ist<br />
<br />
=== Bilineare Interpolation ===<br />
* lineare Interpolation des Pixelwertes an der geünschten Stelle aus den vier benachbarten Pixeln (Abstand zu den Stützwerten geht mit in die Interpolation ein !!!)<br />
* Immer noch sehr schnell<br />
* besser als Runden aber immer noch Fehlerbehaftet<br />
* Im Frequenzbereich wird das Spektrum des Bildes mit einer si²- Funktion multipliziert<br />
** Verunschärfung von Kanten <br />
** mögliche Aliasing Probleme durch Nebenmaxima<br />
<br />
=== Kubische Interpolation ===<br />
* Verwenden von 4x4 Pixeln zu Bestimmung des Interpolationspolynoms<br />
* Unstetigkeitstelle nach der ersten Ableitung (Polynom wird für jede 4x4 Region unabhängig berechnet)<br />
<br />
=== Kubische Spline Interpolation ===<br />
* Bilden der gewichteten Summe aller Interpolationskoeffizienten<br />
** imprinzip ist es eine diskrete Faltung<br />
** Damit muss man nicht unbedingt das Gleichungssystem lösen man kann mit Hilfe der Faltungsinversen (so sie denn existiert) die Koeffizienten berechnen<br />
* Geringe breite<br />
* Stetigkeit<br />
<br />
=== Lineare Bildtransformation ===<br />
* nichtlineare Bildtransformationen können durch lineare Approximiert werden wenn diese auf kleine Elemente angewendet wird<br />
* mit Hilfe von homogenen Koordinaten lässt sich die Transformation schreiben als Zielkoordinaten = Transformationsmatrix * Quellkoordinaten<br />
* Durch umstellen kann man mit Hilfe von Passpunkten die Transformationsmatrix einfach berechnen<br />
** Lieber mehr Puntke als nötig nehmen (Fehlerquadratmethode zum verbessern verwenden) und darauf achten das die Punkte nicht alle auf einer Gerade liegen<br />
* Nach Fehlerquadratmethode: <math> A = P'P^T ( P P^T)^{-1} </math><br />
** A ... Transformationsmatrix<br />
** P 3xn Matrix für n Passpunkte (Quellkoordinaten)<br />
** P' Zielkoordinaten<br />
<br />
= Grauwertstatistik (GwSt 1 - 25) =<br />
* Wird eingesetzt um<br />
** Bilder zu charakterisiren<br />
** Verarbeitungsalgorithmen zu Steuern<br />
** Pixel zu klassifizieren<br />
** Bildsegmentierung durchzuführen<br />
** Texturen zu charakterisieren<br />
* Beschreibung erfolgt durch<br />
** Mittelwert<br />
** Varianz, Schiefe, Exzess<br />
** Entropie<br />
** statistische Momente<br />
** Wahrscheinlichkeitsdichten<br />
* Farbbilder führen zu Mehrdimensionalenverteilungen<br />
<br />
== Co-Occurrence-Matrix ==<br />
* Beschreibung der Häufigkeit des Auftretens von Grauwertpaaren entlang eines Verschiebungsvektors<br />
** Schätzung der Verbundwahrscheinlichkeit<br />
** Bei einem 8-bit Bild ergibt sich eine 256x256 Matrix für eine Verschiebung!! → Es wird meist mit verminderten Farbauflösungen gearbeitet<br />
*ermöglicht aussagen über die Beschaffenheit der zu untersuchenden Textur<br />
** Werte nahe der Hauptdiagonale sprechen ehr für eine Konstrastarme homogene Textur<br />
** Werte an den Randbereichen sprechen ehr für eine konstrastreiche Textur<br />
**<br />
* Stark Richtungsabhänig da ein Verschiebungsvektor gewählt werden muss<br />
* Invariant in grenzen gegenüber additiven Helligkeitsschwankungen<br />
* Aus der Co-Occurrence-Matrix wurden verschiedene Maße abgeleitet<br />
** Energie<br />
** Entropie<br />
** Kontrast<br />
** inverses Differenzmoment<br />
** Korrelation<br />
<br />
== Modifizierte Co-Occurrence-Matrix ==<br />
* Richtungsabhängigkeit wird aufghoben in dem man nun alle Pixel im Abstand d zum Aufpunkt betrachtet<br />
* Es werden nun ähnliche Grauwerte gezählt in dem eine Relation eingeführt wurde (Änderung des Grauwertes im Aufpunkt zum Grauwert in der Nachbarschaft darf einen bestimmten wert nicht überschreiten um gezählt zu werden )<br />
* Additive Helligkeitsüberlagerung verschiebt die Grauwertstatistik lediglich und ändert nicht ihre Form (natürlich nur so lange wie nicht geclipt wird) → geeignetes Merkmal zu Erkennung bestimmter Texturen<br />
<br />
= Punktoperationen (PO 1 - 22) =<br />
* Grauwerte werden nur in Abhängigkeit von anderen Grauwerten und dem Wert selbst geändert<br />
** Abhängigkeit der Pixelposition kann berücksichtigt werden<br />
* Man unterscheidet zwei Arten<br />
**'''inhomogene Punktoperationen''' wenn auch die Pixelposition mit eine Rolle spielt (alle gw werden in Abhängigkeit von ihrer Position geändert)<br />
**'''homogene Punktoperationen''' wenn die Position nicht mit berücksichtigt wird (alle gw werden gleich geändert)<br />
<br />
== inhomogene Punktoperationen ==<br />
=== Shadingkorrektur ===<br />
* Ursache für Abschattungen im Bild:<br />
** inhomogene beläuchtung<br />
** Randabfall des Objektivs<br />
** Inhomogenität des Bildsensors (Unterschiedliche Pixelempfindlichkeiten, Transportverluste)<br />
* Korrektur ist notwendig wenn hochpreäziese Bestimmte Strukturorte bestimmt werden sollen (z.b. Kanten müssen sauber erkannt werden)<br />
** Bei radiometrischen Messungen (geht ja nicht an das das die erkannte Farbe am Rand dunkler ist als in der Bildmitte)<br />
** Wenn nachfolgende Algorithmen mit Schwellwerten Arbeiten<br />
* Korrektur erfolgt linear<br />
** Dunkelsignal für jedes Pixel abziehen<br />
** gw mit ein Faktor multiplizieren so das der gewünschte Maximale Grauwert erreicht werden kann<br />
** Bei digitaler Korrektur erhöht sich die Farbauflösung nicht → wenn vorher die werte zwischen 0...128 lagen und dann auf 0..255 aufgezogen werden dann wird nur jede zweite Grauwertstufe mit einem Wert versehen<br />
** Bei analoger Korrektur kann die Farbauflösung erhöht werden .... ist aber wesentlich aufwendiger<br />
<br />
== homogene Punktoperationen ==<br />
* Ziele:<br />
** Linearisierung bzw Formung der Kennline des Systems<br />
** Anpassung an unterschiedliche Beleuchtungen und Kontrastverhältnisse<br />
<br />
=== Polygonal Image Scaling ===<br />
* als Übertragungsfunktion wird ein Polygonzug benutzt<br />
* Kennlinie kann aus der Sensorkennline gewonnen werden wenn z.b. eine Linearisierung vorgenommen werden soll<br />
* Oder kann per Hand festgelegt werden → z.B. zur Kontrastverbesserung<br />
* LUT - werden eingesetzt um schnell die neuen Grauwerte zuweisen zu können<br />
* Polygonzug kann aus den Statistischen Momenten konstruiert werden so das eine automatischer Histogrammausgleich erfolgen kann → Contrast Stratching<br />
** Funktioniert nur wenn das Histogramm eine geeignete Verteilung aufweist<br />
<br />
=== Histogrammausgleich ===<br />
* Die Anzahl der Pixel in einem Bild ist konstant<br />
* Wenn die Transferfunktion zwischen Grauwerten bekannt ist kann das neue Histogramm aus dem alten direkt berechnet werden<br />
** Anzahl der Pixel unter der Kurve ist konstant<br />
** <math> h_B(gw) = \frac{h_A(f^{-1}(gw))}{f'f^{-1}(gw)} </math><br />
** <math>f</math> ... Die Transferfunktion<br />
** <math>f'</math> ... Ableitung der Transferfunktion<br />
** <math>f^{-1}</math> ... Umkehrfunktion der Transferunktion<br />
** <math>h_A</math> ... Ausgangshistorgamm<br />
** <math>h_B</math> ... Zielhistogramm<br />
* Damit läßt sich aber auch die Transferfunktion berechnen die Notwendig ist um eine bestimmte Histogrammform zu erreichen<br />
==== Entropiemaximierung ====<br />
* automatische, nichtlineare Grauwertransformation<br />
* Zielhistogramm ist im mittel eine Gleichverteilung<br />
* Nun lässt sich die Transferfunktion berechnen und ergibt sich zu<br />
** <math> f(gw) = gz_B P(gw) </math><br />
*** <math> gz_B </math> .... gewünschte Anzahl der Graustufen im Zielhistogramm<br />
*** <math> P(gw) </math> .... Wahrscheinlichkeit für das Auftreten des Grauwertes im Quellbild (Kommt aus dem Quellhistogramm Wert/Pixelzahl)<br />
<br />
= Lokale Operatoren zur Bildverbesserung (LOa 1 - 44) =<br />
* '''globale Operatoren'''<br />
** alle Bildpunkte fließen in die Berechnung jedes Bildpunktes des Zielbildes mit ein<br />
** bekanntes Beispiel ist die Fouriertransformation<br />
* '''lokale Operatoren'''<br />
** nur eine beschränkte Umgebung um den Aufpunkt fließt in die Berechnung des Zielpixels ein<br />
*** '''akausal''' sowohl vorrausgehende als auch Nachfolgende Pixel werden mit berücksichtigt<br />
*** '''kausal''' nur vorrausfolgende Pixel werden berücksichtigt (meist unsymetrische Filtermasken, ist ehr die Ausnahme)<br />
<br />
== Tiefpassfilter ==<br />
* die wesentlichen Bildinhalte liegen meist in den mittleren und niedrigen Frequenzen<br />
* hohe Frequenzen beinhalten oft die Hauptteile des Bildrauschens<br />
* Filter müssen mittelwerterhaltend sein → Summe aller Gewichte muss 1 ergeben<br />
* Filter dürfen die Objektpositionen nicht verändern → Phasenverschiebung =0 → nur symetrische Filter<br />
<br />
=== Spalttiefpass ===<br />
* aka Boxoperator<br />
* einfachste Form zur Dämpfung von Rauscheinflüssen<br />
* Mittelwertbildung im Ortsbereich<br />
* nicht Monoton abklingend im Frequnzbereich (schwingt wieder auf)<br />
<br />
=== Dreieckfilter ===<br />
* Gewichte sind Dreiecksförmig verteilt 1/16 ([1 2 1]^T * [1 2 1])<br />
* im Vergleich zum Spalttiefpass<br />
** besitzt geringeres Aufschwingen<br />
** größere obere Grenzfrequenz<br />
** geringere Anisotropoe<br />
<br />
=== Binomialfilter ===<br />
* binomiale Wichtung reduziert die Nachteile von Box- und Dreiecksfilter<br />
* Filterkoeffizienten kommen aus dem Pascalschen Dreieck<br />
** bsp 5x5 1/256([1 4 6 4 1]^T * [1 4 6 4 1])<br />
* im Vergleich<br />
** Das Überschwingen verschwindet bei großen Fenstergrößen<br />
** isotropes Verhalten<br />
** noch höhere Grenzfrequenz als der Dreiecksfilter<br />
* Binomialfilter entstehen auch duche die Kaskadierung von Boxfiltern<br />
** Interressant für die Effiziente Implementierung wenn Zwischenergebnisse genutzt werden können<br />
** Parallelisierbarkeit<br />
* effektive Filterbreite kann erhöht werden in dem man Zeropadding (einfügen von Nullen) durchführt<br />
** Der Nachteil ist das unerwünschte Frequenzen nun voll übertragen werden<br />
** Lösung ist das Kaskadieren verschiedener Filter<br />
** somit kann eine sehr kleine Grenzfrequenz erreicht werden ohne das es zu störenden Nebenmaxima kommt<br />
* Für große Filterbreiten nähren sich die Gewichte der Gaußglockenkurve an<br />
<br />
=== effektive Filterbreite ===<br />
* um Filter mit einander zu vergleichen muss ein Vergleichmaß gefunden werden<br />
* Aufsummieren der Quadratischen Abstände der Gewichte von der Filtermitte gewichtet mit eben diesen Gewichten ergibt die Varianz als effektive Filterbreite<br />
* Filter können so mit dem entsprechenden Boxfilter verglichen werden<br />
<br />
== Nichtlineare Filter ==<br />
* notwendig wenn einzelne Pixel keine relevanten Informationen mehr Tragen (defekt Pixel z.B.)<br />
* Mittelung würde den Fehler nur verschmieren<br />
* Zweites Anwendungsgebiet ist das unterdrücken von Gaußschem Rauschen ohne das dabei Kanten verschmiert werden<br />
<br />
=== Medianoperator ===<br />
* Berechnung erfolgt NICHT durch Faltung<br />
* Günstig ist die Ermittlung des Medianwertes aus dem Histogram des Bildfensters<br />
* Medianfilter unterdrückt auch bei kleinen Koppelweiten effektiv Impulsrauschen und vermeidet nahezu Verunschärfungen im Bild<br />
* Filter funktioniert nicht für Gaußches Rauschen !!!<br />
<br />
=== gewichtete Mittelwertbildung ===<br />
* es soll nur dann gefiltert werden wenn keine Kante im Filterfenster vermutet wird → Erhaltung der Kanten und trozdem Rauschunterdrückung<br />
* Kann z.B. erreicht werden in dem man sagt das die mittlere Abweichung im Fenster eine bestimmte Schwelle nicht überschreiten darf sonst wird der filter halt einfach nicht angewendet<br />
* Das Ganze kann mit verschiedenen Wichtungen der Nachbarpixel passieren<br />
* Man unterscheidet ausserdem das '''harte Entscheidungskriterium''' bei dem es nur Filtern und nicht Filtern gibt und das '''weiche Entscheidungskriterium''' bei dem es auch ein bischen Filtern gibt<br />
* Es besteht die Möglichkeit das ganze Gradienteninvers zu machen<br />
** Die Idee ist hier das Kanten einen hohen Gradienten im Bildfenster erzeugen <br />
** wenn also kein hoher Gradient vorliegt dann ist vermutlich keine Kante im Fenster<br />
* Eine weitere Möglichkeit ist das Filtern von der Varianz im Bildfensterabhängig zu machen<br />
** kleine Varianz heiß keine Kante<br />
** hohe Varianz vermutlich eine Kante<br />
<br />
=== Kombination von Average und Medianfilterung ===<br />
* Ziel ist es beide Filter geeignet zu Kombinieren damit man die Vorteile beider Filter nutzen kann<br />
* Extended Median Filter<br />
** average Filter immer dann wenn die Abweichung des Resultierenden Grauwertes von Originalwert kleiner ist als die des Medianfilters<br />
** Medianfilter immer dann wenn nicht der average Filter genommen wird<br />
* α - trimmed Median filter<br />
** Mittlung der Funktionswerte die in einer α-Umgebung um den Median liegen (nach dem Sortieren der Funktionswerte)<br />
<br />
= Effiziente Implementierung von lokalen Operatoren (EI 1 - 12) =<br />
== Dekomposition von Faltungsoperatoren ==<br />
* statt eines großen Operators wird dessen Koppelweite erreicht in dem man n Päße mit mehreren kleinen Operatoren ausführt<br />
* damit lässt sich der Rechenaufwand auf etwa 50% senken<br />
* nicht alle Operatoren lassen sich dekomponieren<br />
** eine Dekomposition ist immer dann möglich wenn die Matrix linear Abhängige Zeilen und Spalten enthält also nicht den vollen Rang besitzt<br />
** Je nach Größe der dekomponierten Matrizen müssen mehr oder weniger Zeilen linear Abhänig sein<br />
** Bei einer 5x5 Matrix muss der Rang <=3 sein damit sie sich in zwei 3x3 Matrizen zerlegen lässt<br />
<br />
== Separierung von Fensteroperatoren ==<br />
* Zerlegung eines 2D-Filters in 2 Pässe mit einem 1D-Operator (eine 1xn und einen nx1 Operator)<br />
* Erhebliche Reduzierung des Rechenaufwandes (bei einem 7x7 Filter sinkt er auf 30%)<br />
<br />
== Updating ==<br />
* Wiederverwendung von Zwischenergebnissen aus benachbarten Operatoren<br />
* Erforder gegebenenfalls "kreatives" Verschieben des Operators (Zeilenweise, Meanderförmig, Hilbertkurve)<br />
* Bei Boxfilter z.B. brauchen nur die neuen Pixel hinzugenommen werden und die alten abgezogen werden<br />
* Unter Verwendung von Separierbarkeiten kann der Rechenaufwand darmatisch gesengt werden<br />
* Boxoperator z.B. brauch nur 4 Operationen pro Pixel unabhängig von der Größe (wenn man jetzt mal den Anfang und die Ränder Vernachläßigt)<br />
<br />
= Beispiel zu Median und Mean bei Gaußschem Rauschen (LOa 45 - 54) =<br />
* Siehe [[#Nichtlineare_Filter|Nichtlineare Filter]]<br />
<br />
= Diffusionsfilter (DiFi 1 - 10) =<br />
* Ist die Anlehnung an den Physikalischen Diffusionsprozess<br />
* Es werden drei Diffusionsmodelle unterschieden<br />
*# Isotrope homogene Diffusion (einfach alles gleichmäßig wegdiffundieren)<br />
*# Isotrope inhomogene Diffusion (Stärke der Diffusion wird durch das vorhandensein einer Kante beeinflusst)<br />
*# Anisotrope Diffusion (Diffusion erfolgt nur noch parallel zu Kanten)<br />
<br />
== Mathematik des Diffusionsfilters ==<br />
* Die Divergenz (kurz DIV gibt) gibt an wieviel in ein Volumen einströhmt oder ausströmt<br />
** ein skalarer Wert<br />
** in kartesischen Koordniaten ist div (W) = Summe der partiellen Ableitungen von W nach seinen Komponenten<br />
* Die Änderung der Konzentration erfolgt entgegengesetzt zu divergenz des Konzentrationsflusses<br />
** <math> \frac{\partial F(x,y,t)}{\partial t}=-\text{div}\vec{\psi }</math><br />
** Und der aktuelle Fluss ist wiederum natürlich von der aktuellen Konzentration abhängig<br />
** <math> \vec{\psi }=-D(x,y)\nabla F(x,y)=-D(x,y)\left(\begin{matrix}\frac{\partial F}{\partial x}\\\frac{\partial F}{\partial y}\end{matrix}\right)</math><br />
** Mit Hilfe der Matrix D kann nun das gewünschte Diffusionsverhalten eingestellt werden<br />
*** Mit dieser Matrix gibt man an wie sich ein Gradient in X bzw Y Richtung auf den Fluss auswirken soll<br />
* Eine Taylorreihenentwicklung kann genutzt werden um eine iterative Berechnungsvorschrift für die neue Konzentration aus der alten Konzentration zu erhalten<br />
** <math> F(x,y,t_{i+1}) = F(x,y,t_i) + (t_{i+1} - t_i) \cdot \left [ \frac{\partial F(x,y,t)}{\partial t} \right ]_{t_i}</math><br />
<br />
== isotrop homogener Filter ==<br />
* Beim isotrop homogener Filter muss die Filterung richtungsunabhänig und Gradientenunabhängig erfoglen<br />
* D wird also wie folgt eingestellt<br />
** <math> D=\left[\begin{matrix}\epsilon _{0}&0\\0&\epsilon_{0}\end{matrix}\right]</math><br />
* es wurde analytisch nachgewiesen das eine solche Einstellung nichts anderes bewirkt als mit einem Gaustiefpass zu Falten<br />
<br />
== isotrope inhomogene Filterung ==<br />
* Beim isotrop inhomogenen Filterung muss die Filterung richtungsunabhänig aber in Abhängigkeit der Gradienten erfoglen<br />
* D wird also wie folgt eingestellt<br />
** <math> D=\left[\begin{matrix}\epsilon (\|\nabla F(x,y,t)\|^{2})&0\\0&\epsilon(\|\nabla F(x,y,t)\|^{2})\end{matrix}\right]</math><br />
** für das variable <math> \epsilon</math> kann man sich dann tolle dinge einfallen lassen z.B.<br />
** <math> \epsilon (x) = \epsilon_0 \cdot \frac{\lambda^2}{x+\lambda^2}</math><br />
*** <math>\lambda</math> Steuert dabei wie stark die Diffusion an Grandienten zurückgeht</math><br />
* Der Filter ist mit den streunungsinversen bzw. Gradientenabhänigen Filtern vergleichbar und hat keine neuen tollen Eigenschaften<br />
<br />
== anisotrope inhomogene Filter ==<br />
* Die Filterung erfolgt nun abhängig vom Gradienten nur in bestimmte Richtungen<br />
* D ist nun voll besetzt und wird wie folgt Konstruiert<br />
** <math> D=\left[\begin{matrix}\epsilon _{1,1}&\epsilon _{2,1}\\\epsilon_{1,2}&\epsilon _{2,2}\end{matrix}\right]\cdot \left[\begin{matrix}\lambda _{1}&0\\0&\lambda _{2}\end{matrix}\right]\cdot \left[\begin{matrix}\epsilon_{1,1}&\epsilon _{2,1}\\\epsilon _{1,2}&\epsilon_{2,2}\end{matrix}\right]</math><br />
** Die Eigenvektoren <math> (\epsilon_{1,1},\epsilon _{1,2})^T</math> und <math> (\epsilon_{2,1},\epsilon _{2,2})^T</math> geben dabei die Richtung der Diffusion vor und mit den Eigenwerten <math> \lambda_1 </math> und <math> \lambda_2 </math> kann die Stärke der Diffusion in diese Richtung eingestellt werden<br />
** Um nur Diffusion parallel zu den Kanten zu haben wählt man einen Eigenvektor in Richtung des Gradienten und den anderen senkrecht dazu<br />
** Bei dem Eigenvektor senkrecht zum Gradienten stellt man den zugehörigen Eigenwert auf eine Konstante größe z.B. 1<br />
** Der Eigenwert in Richtung des Gradienten hingegen wird mit der wie beim isotropen inhomogenen Filter invers zum Gradienten eingestellt<br />
* Dieser Filter ermöglicht eine gute Rauschunterdrückung auch in Kantennähe und besitzt trozdem eine sehr gute Kantenerhaltung<br />
<br />
= Bildrestauration (BR 1 - 4) =<br />
* Ziel ist es bekannte deterministische Störungen rückgängig zu machen<br />
* So z.B. die verschmierende Wirkung der PSF<br />
* Dazu muss diese ersteinmal ermittelt werden<br />
* Idee: Anwendung der Inversen der störenden Funktion<br />
** im Frequenzbereich braucht man nur durch die Funktion zu teilen (theoretisch ;))<br />
* Problematisch sind Nullstellen und Werte nahe 0 der Inversen Funktion ... hier sind alle Informationen futsch und ein dividieren durch 0 macht alles nur schlimmer nicht besser<br />
** Eine mögliche Lösung ist einfach das weglassen der entsprechenden Frequenzen in dem die Korrekturfunktioin einen mindestwert überschreiten muss bevor man Anfängt die stelle zu Korregieren<br />
* Ein weiteres Problem ergibt sich wenn man nun noch additives Rauschen annimmt<br />
** Diesees wird vorallem bei hohen Frequenzen stark verstärkt und macht das Ergebnis damit unbrauchbar<br />
* Das Wiener Filter versucht diese Probleme zu Berücksichtigen und zu minimieren in dem es ein Rauschmodell annimmt<br />
<br />
= Morphologische Operationen zur Binärbildverarbeitung (MO 1 - 26) =<br />
* in diesem Kapitel geht es vorallem um Binärbilder die mit Hilfe von Schwellwertoperationen oder durch Labelung entstanden sind<br />
* Ziel ist:<br />
** Objektformen zu verbessern<br />
** Formen zu erkennen und zu extrahieren<br />
<br />
== Basisoperationen Erosion und Dilatation ==<br />
* '''Definitionen'''<br />
** Binärbild ... eine NxM Matrix bestehend aus 0 und 1, wobei alle indizes Positiv sind<br />
** Strukturierendes Element ... eine KxL Matrix aus 0 ,1 und don't care, wobei wenn nicht ausdrücklich anderst angegeben der Wertebereich der indizes von -K/2 bis +K/2 bzw. -L/2 bis +L/2 geht<br />
*** Symetrisch zum Aufpunkt in der Mitte<br />
*** Muss nicht Quadratisch sein ... <br />
* '''Erosion'''<br />
** Abtragen<br />
** Der Aufpunkt des Strukturierenden Elements wird im Zielbild nur gesetzt wenn alle Werte im Strukturierenden Element UND verknüpft mit dem Bild 1 ergeben<br />
* Dilatation<br />
** Anlagern<br />
** Der Aufpunkt des Strukturierenden Elements wird im Zielbild gesetzt, wenn ein Werte im Strukturierenden Element UND verknüpft mit dem Bild eins ergibt<br />
* Unterverwendung von logischen Operationen ergeben sich Faltungsähnliche Ausdrücke<br />
<br />
== Opening und Closing ==<br />
* '''Opening'''<br />
** Dünnwandinge Objekte werde mit Errosion geöffnet und der Flächenverlust der anderen Objekte wird mit anschließender Dilatation ausgeglichen<br />
* '''Closing'''<br />
** Kleine Löcher/Risse werden mit Dilatation geschlossen und der Flächenzuwachs wird anschließend mit Erosion beseitigt<br />
* Beide Operationen sind Idempotent, was heißt das man sie nur einmal anwenden braucht weil jede weitere Anwendung das Ergebnis nicht mehr verändert<br />
* Die Form des verwendeten Strukturierenden Elements verändert auch die Form der Objekte im Bild<br />
<br />
== Hit & Miss ==<br />
* Dient der Extraktion einer bestimmten binären Form im Bild<br />
* Dazu werden zwei Masken definiert<br />
** Hit Maske enthält die gesuchte Objektform<br />
** Miss Maske enthält nur die Berandung der gesuchten Form<br />
* Die Hit Maske wird mit Hilfe der Errosion auf das das Bild angewendet<br />
** Alle Objekte die größer oder gleich der Hitmaske sind bleiben im Zielbild<br />
* Dann wird das negierte Quell Bild mit der Miss Maske Erodiert ... nun verschwinden alle Objekte die größer als die gesuchte Form sind<br />
* Die UND Verknüpfung beider Bilder ergibt dann das Endergebnis<br />
* Da der Schnitt der Hit und Miss Maske leer ist kann man beide durch ODER Verknüpfung zur Hit&Miss Maske zusammenführen → Es ist nur ein Pass Notwendig um die gewünschten Formen zu finden<br />
** dazu muss man aber ein negiertes XOR verwenden für die Vernküpfung von Bild und Maske<br />
* Durch einfügen von Don't Care werten kann man auch eine Variabilität der gefundenen Form zulassen<br />
<br />
== Eckendetecktion ==<br />
* Man kann spezielle Hit&Miss Masken verwenden um Ecken zu detektieren<br />
** Dafür muss die Hit-Makse den Rand es Operators berühren dürfen (vorher war die Hit-Maske vollständig von der Miss-Maske umgeben)<br />
* Beispiel für einen Operator der untere Rechte Ecken detektiert<br />
<pre><br />
x 1 0<br />
1 1 0<br />
0 0 0<br />
</pre><br />
* Die anderen alle Ecken eines Objektes kann man finden in dem man einen Satz von Operationen auf das Bild losläßt (einfach nach allen 4 Eckentypen suchen )<br />
<br />
== Thinning ==<br />
* Häufig will man Objekte bis auf einen dünnen Rand ausdünnen ohne das die Berandung aufreist<br />
* mit Errosion nicht möglich<br />
* Man verwendet wie bei Eckendektor einen Satz von Hit&Miss Masken die alle vier möglichen Kanten enthalten<br />
* Die Masken müssen Zyklische nacheinander Angewendet werden<br />
** Das Ergebnis eines Passes soll ich erst ergeben wenn man das erhaltene Ergebnis des Passes von dem gesammt Ergebnis des vorhergehenden abzieht (warum is mir momentan auch nicht klar ... werd ich in der Konsultation mal ansprechen)<br />
** So lange bis es keine Änderungen mehr im Bild gibt<br />
<br />
== Skelettierung/Zusammenhänge und Nachbarschaften ==<br />
* Basierend auf dem Jordan Theorem: eine Koninuierliche Linie trennt den Vordergrund vom Hintergrund gilt:<br />
** Im Vordergrund nutzt man die 8ter Nachbarschaft (also auch die Diagonalen sind Benachbart) <br />
** Für den Hintergrund wird nur die 4er Nachrbarschaft genutzt (Diagonalen sind nicht Benachbart)<br />
* Skeletierung ist die extraktion von 1 pixelbreiten Linien die den Vordergund noch vom Hintergrund trennen<br />
* Je nach Anzahl der Nachbarn kann man unterscheiden<br />
** 2 nichtbenachbarte Nachbarn: Ecke und Linie<br />
** 3 nichtbenachbarte Nachbarn: Verzweigungen<br />
** 4 Nichtbenachbarte Nachbarn: Kreuzung<br />
* Die Verfahren basieren meist auf dem Thinning und unterscheiden sich nur durch verschiedene Maskensätze<br />
** Der Verwendete Maskensatz bestimmt die Qualität der Skelette<br />
* Es gibt Masken die in einem Pass Lücken schließen können oder den Rand glätten<br />
<br />
= Kantendetektion (LK 1 - 38) =<br />
* Wir benötigt für die Extraktion von Segmenten und Objekten <br />
* Vektorisierung von Bildern<br />
* zwei Verfahren zur Kantendetektion und Kantenortbestimmung<br />
*# Kantenverstärkung und Schwellwertoperationen<br />
*#* Problem ist die Wahl des Schwellwertes (einerseits will man Rauschen unterdrücken andererseits auch schwache Kanten finden)<br />
*#* möglich sind auch ortsabhängige Schwellwerte<br />
*#* Man kann zwischen steigenden und fallenden Kanten mit Hilfe des Gradienten unterscheiden<br />
*# Fitting einer Modellkante<br />
*#* lokale Pixelbereiche werden geprüft ob sie mit einem Kantenmodell übereinstimmen → wenn gut dann detektion einer Kante<br />
*#* Kantenort kann Subpixelgenau bestimmt werden<br />
<br />
== Lineare Filter zur Kantendetektion ==<br />
* Kantenverstärkung bei gleichzeitiger Unterdrückung konstanter Grauwerte → Ableitungsoperatoren<br />
* Ziel ist es immer noch das die Filter den Ort der Kante nicht verschieben dürfen<br />
** Wird erreicht in dem alle Phasen um 90° gedreht werden → rein imaginäre Transferfunktion<br />
** antisymetrische Filtermasken → ungerade Fiterbreiten und eine Nullspalte in der Mitte<br />
* Berechnung des Gradienten ermöglicht auch gleichzeitiges Berechnen der Orientierung der Kante<br />
<br />
=== Roberts- und Sobeloperator ===<br />
* Roberts: <math>H_{R}=\left[\begin{matrix}1&0\\0&-1\end{matrix}\right],H_{R}=\left[\begin{matrix}0&-1\\1&0\end{matrix}\right]</math><br />
** rauschempfindlich, Gitterversatz um ungleichen Ortsbezug zu vermeiden<br />
* Sobel: <math>H_{S}=\left[\begin{matrix}1&0&-1\\2&0&-2\\1&0&-1\end{matrix}\right],H_{S}=\left[\begin{matrix}1&2&1\\0&0&0\\-1&-2&-1\end{matrix}\right]</math><br />
** Mittelwertbildung durch Dreiecksoperator → Veringerte Rauschempfindlichkeit<br />
** kein Gitterversatz weil asymetrisch in differenzierende Richtung<br />
* im Frequenzbereich ergibt sich 1D in Differenzierende Richtung ein Sin → Bandpasscharackter<br />
* Höhere Koppelweiten führen dazu das mehrere Bänder an frequenzen durchgelassen werden (Sinus im Frequenzbereich bekommt eine höhere Frequenz)<br />
** Steile Kanten werden unscharf im Ort<br />
** Flache Kanten haben eine höhere Antwort<br />
<br />
=== Differenzierter Gauß ===<br />
* Gradientenoperation auf das Gaußgeglättete Bild<br />
* leint an Auflösung anpassbar<br />
* einfache Realisierung unterschiedlicher Grenzfrequenzen<br />
* optimaler Kompromiss zwischen Lokalisation und Detektion<br />
* ist Seperierbar<br />
<br />
== Kanten- Differentialoperatoren 2. Ordung ==<br />
=== Laplace Operator ===<br />
* Differenzen zwischen benachbarten Neigungen → steigende und fallende Katen werden durch Vorzeichenfolgen unterschieden nicht nur durch das Vorzeichen allein<br />
* Doppelkonturen bei Betragsbildung<br />
* Kantenort wird durch den Nulldurchgang bestimmt<br />
* Im Frequenzbereicht ergibt sich ein Bandpass mit ½-½*cos(pi*k)<br />
<br />
=== Laplacian of Gaussian ===<br />
* Besteht aus 2 Gausfunktionen<br />
* Hat gegenüber dem Laplace Operator eine größere Koppelweite bei gleichzeitiger 2D - Gaußglättung<br />
* ist der Menschlichen Wahrnehmung sehr nahe<br />
* geringe Rauschempfindlichkeit<br />
* erkennt auch geringe Kanten<br />
<br />
== nichtlineare Kantenhervorhebung ==<br />
* verschiedene Möglichkeiten<br />
** nichtlineare Verknüpfung linearer Teilergebnisse → Rosenfeld<br />
*** Betrag oder L2-Norm<br />
*** Summe der Beträge oder L1-Norm<br />
*** Naximale Komponente oder L∞-Norm<br />
** nichtlineare Transformation der Grauwerte und linearer Kantenoperator → Wallis<br />
** nichtlineare Kantenhervorhebung im Grundsatz<br />
<br />
=== Rosenfeld Operator ===<br />
* Verwendung mehrerer Verschiedengroßer Operatoren der Form -1 1, -1 -1 1 1, -1 -1 -1 1 1 1 , ...<br />
* Multiplikative Verknüpfung der Ergebnise der einzelnen Operatoren → Unterstuützung aller positiven Eigenschaften<br />
<br />
=== Wallis ===<br />
* Der Logarithmus der Luminanz des Zentralenpixels muss die mittlere logarithmische Luminanz seiner 4 nächsten Nachbarn übersteigen<br />
* Nach Logarithmengesetzt führt das dazu das das Verhaltnis des Zentralpixels zum Produkt aller Nachbarn größer einer bestimmten schwelle sein muss<br />
* Entspricht dem Laplaceoperator angewendet auf logarithmischen Daten<br />
<br />
=== morphologische Kantendetektion ===<br />
* Durch Anwenden von Errosion bzw. Dilatation auf ein Bild und anschließendem abziehen des Ergebnisbildes vom Ursprungsbildes entsteht ein Kantenbild bei dem die Kante um ein Pixel in das Objekt bzw aus dem Objekt herraus geschoben wurde<br />
* Durch Anwenden des Minimusoperators zwischen beiden Ergebnisbildern kann der Kantenort genau bestimmt werden (Kante muss vorher geglättet werden)<br />
* gute Rauschunterdrückung<br />
<br />
= Segmentierung von Bildern (RS 1 - 15) =<br />
* Ziel ist es die Bildinhalte zu strukturieren<br />
* Dazu muss man zusammenhängende Bereiche im Bild finden die ähnliche Eingenschaften haben<br />
* Die Segmente haben bestimmte Eigenschaften<br />
** Alle Segmente sind zusammenhängend<br />
** der Schnitt zweier Segmente ist leer<br />
** Es gibt keine zwei Segmente die die gleichen Eigenschaften haben<br />
** Die Vereinigung aller Segmente ergibt das Bild<br />
<br />
== Regionsorientierte Segementierung Pixelklassifikation ==<br />
* Klassifikation von grauwertigen bzw farbigen Bildern<br />
* Uniformitätskriterien werden aus dem Histogramm entnommen<br />
* Für die Automatische ermittlung der Uniformitätskriterien sollten es möglichst einfache Zweiklassenprobleme sein<br />
** hoher Kontrast<br />
** gleichmäßige Ausleuchtung<br />
* Lernen von Trenngeraden mit Hilfe von statistischen Operationen aus vorgelabelten Beispielen<br />
<br />
== Segmentierung - K&Z- Zeilenkoinzidenzverfahren ==<br />
* Anwendung nach der Pixelklassifikation<br />
* Zeilenweise Testen zu welcher Klassen das Pixel gehöhrt, jeweils die "Region" der Nachbarn übernhemen<br />
* wenn zwei verschiedene Regionen aufeinander Treffen → eintrag in Äquivalenzliste<br />
* im zweiten Pass alle indirekten Äquivalenzen auflösen<br />
* Ergebnis ist ein Bild in dem die verschiedenen Regionen einer Klasse markiert sind<br />
<br />
== Region Growing ==<br />
* Beachten der Uniformität und der Nachbarschaft gleichzeitig<br />
* Zufälliges setzen von kleinen Wachstumskernen<br />
* Kerne auf Objektkanten werden entfernt<br />
* Zyklisches Wachsen aller Regionen bei fortlaufender Berechnung der Regionseigenschaften<br />
* nach dem die Regionen aufgehöhrt haben zu Wachsen werden die Uniformitätskrieterien so lange aufgeweicht bis alle Pixel zugeordnet wurden<br />
* Nach Abschluss des Wachstums erfolgt das verbinden von benachbarten Regionen mit gleichen oder ähnlichen Eigenschaften<br />
** Auflösen von Schwachen Kanten<br />
* Danach Neuberechung der Eigenschaften der Region und wieder von vorne beginnen<br />
* Probleme<br />
** Regionen ohne Kerne wachsen zu<br />
** viele Kerne führen zu hohen Aufwand<br />
<br />
== Split and Merge ==<br />
* rekursives Zerlegen des Bildes so lange bis homogene Bereiche im Sinne des Uniformitätskriteriums gefunden wurden<br />
* Im Merge Schritt werden alle benachbarten Regionen mit gleichen Eigenschaften verbunden (Baumstruktur ist hier von Vorteil)<br />
<br />
= Kontursegmentierung / Konturapproximation (LBS 1 - 37) =<br />
== Linienverfolgung in Linienbildern ==<br />
* ''' Suchstrahlmethode '''<br />
** Ausgangspunkt ist ein Punkt der Linie/Kontur<br />
** Linie wird immer in Richtung des größten Mittelwertes fortgesetzt<br />
* '''Einbereichsverfahren'''<br />
** im Radius R wird ein Kreis Segment gelegt<br />
** Die Grauwerte auf dem Kreis werden über ihren Winkel abgetragen<br />
** Linie wird in Richtung des größten Grauwertes vortgesetzt<br />
** Anfällig gegenüber Störungen und Unterbrechungen der Kontur<br />
* '''Mehrbereichsverfahren'''<br />
** Erweitern des Einbereichsverfahren durch mehrere achsenparallele Schnitte (Mittelung über mehrere Grauwerte)<br />
** Je nach Richtung der Linie muss die Schnittrichtung angepasst werden<br />
<br />
== Linienverfolgung in Gradientenbildern ==<br />
* Graphentheoretischer Ansatz<br />
* Regeln:<br />
** Ein Graph besteht aus Knoten und Kanten und die Kanten verbinden die Knoten<br />
** Zwischen zwei Knoten exisistiert genau eine Kante<br />
** Eine Kante verbindet immer zwei Knoten (keine schleifen)<br />
** Den Kanten wird mit einer Gewichtsfunktion ein Gewicht zugeordnet<br />
** Kantenfolgen bestehen aus zusammenhängenden Kanten die immer einen gemeinsamen Knoten haben<br />
** Ein Pfad ist eine Kantenfolge aus verschiedenen Kanten<br />
** Ein Zyklus entsteht wenn der gleiche Knoten mehrmals nicht benachbart auftritt<br />
** Das Gewicht eines Pfades ist die Summer aller Gewichte der Kanten<br />
* Ziel ist es einen maximalen oder minimalen Pfad zu finden<br />
* ohne Einschränkungen führt da schnell zur kombinatorischen Explosion<br />
<br />
== Linienverfolgung in binarisierten Linienbildern ohne Skeletierung ==<br />
* Linienverfolgung erfolgt mit Hilfe von Schnitten parallel zu den Achsen<br />
** ein Schnitt besteht aus zwei "0" Punkten zwischen denen eine begrenzte Anzahl von "1" Punkten liegt<br />
* Es werden in der Nachbarschaft von bereits gefundenen Liniensegmenten weitere durch Schnitte gesucht<br />
* Keine Nachbarpunkte → Linienende<br />
* Wenn ein "1"-Punkt in der Nachbarschaft liegt aber kein gültiger Schnitt → Schnittrichtungswechsel machen<br />
** Wenn dann immer noch kein gültiger Schnitt exisistiert → Verzweigung/ Kreuzung<br />
<br />
== Linienverfolgung in skelettierten Bildern ==<br />
* Konturbilder sind binarisiert und sekelettiert<br />
* FREEMAN-Ketten<br />
** Richtungszahlen zur Beschreibung der Linien<br />
** Koordinaten für Anfangs, Endpunkte, Verzweigungen und Kreuzungspunkte<br />
* Einteilung der 3x3 Umgebung in Relevanzklassen<br />
*# irlevante Punkte (Punkte auf den Linien)<br />
*# Eckpunkte<br />
*# Endpunkte<br />
*# Kreuzungen und Verzweigungen<br />
* Wenn mehrere Relevante Pixel benachbart sind wird nur der mit der höheren Relevanz notiert<br />
* Weitere Vereinfachungen können dann durch Approximationsalgorithmen erfogeln<br />
<br />
== Modellbasierte Segmentierung (Houghtransformation) ==<br />
* Ziel ist das suchen von Objekten bei starken Störungen<br />
* Idee ist das überführen des Bildes in einen Parameteraum in dem die enthaltenen Objekte einfach abglesen werden können<br />
* Am Bsp einer Linie<br />
** Jeder Punkt kann ein Punkt beliebig vieler geraden sein<br />
** Alle diesen möglichen Parameter dieser Linien werden jetzt im Parameterraum eingezeichnet<br />
** als Transformationsformel, wenn man m vareieren möchte ergibt sich <math> b = -x \cdot m + y</math><br />
** liegen nun mehrer Punkte auf ein und der selben Gerade ergibt sich im Parameteraum ein Schnittpunkt bei dem Parameter dieser Geraden<br />
** Senkrechte geraden haben Schnittpunkte im unendlichen wenn man nicht die Hessesche Normalform für Geraden verwendet<br />
* um das verfahren zu Beschleunigen können zusätzliche Informationen genutzt werden die die möglichen Parameter einschränken können (z.B. Gradientenrichtungen bei Linien)<br />
* So lange der Parameterraum nicht zu groß wird können so beliebige Objekte gefunden werden<br />
<br />
== Segmentierung in Kurvenprimitiven ==<br />
* Ziel ist das Zerlegen eines Bildes in Kreise, Splines, Polygone<br />
* Zur Bildanalyse reicht meist die Zerlegung in Polygone<br />
<br />
=== Split & Merge ===<br />
* Zwei Punkte notwendig (einen Anfangspunkt und einen Endpunkt)<br />
*# Wähle den Punkt mit der größten Abweichung die über dmax liegen muss und füge ihn der Kontur hinzu (Split)<br />
*# Wiederhole so lange bis alle Punkte einen Abstand <dmax haben<br />
*# Verbinde Geraden die einen Winkel von 180° +- Toleranz haben (Merge)<br />
<br />
=== Strip Algorithmus ===<br />
*# Wähle die ersten beiden Punkte eines Geradensegments<br />
*# Alle Punkte innerhalb innerhalb des Slauchs liegen werden einer verketteten Liste hinzugefügt<br />
*# Der erste Punkt ausserhalb und der letzte in der Liste ergeben eine neue gerade<br />
*# Wiederhole bis alle Punkte zugeordnet sind<br />
* Problem ergibt sich wenn zwei Punkte aufgrund von Fehlern die Gerade nicht Optimal vorgeben<br />
<br />
=== Enhanced Strip Algorithmus ===<br />
*# Wähle den ersten Punkt und den ersten Punkt der ausserhalb eines Kreises mit dem Radius den Toleranzschlauches liegt<br />
*# Die beiden Punkte bestimmen die Gerade mit ihrem Toleranzschlauch<br />
*# Suche nun den am weitesten Entfernten Punkt der keinen Schnitt mehr mit dem Toleranzschlauch hat (Kreis um Punkt ist ausschlaggebend)<br />
*# nehme den vorhergehenden Punkt und beginne dort mit einem neuen Liniensegement<br />
*# Wiederholen bis alle Punkte Verbaucht sind<br />
* Hat Probleme bei Rückläufigen Kurven → Dunham hat Lösung vorgeschlagen bei dem der Punkt, der am dichtesten an dem weitentferntesten Punkt des aktuellen Segments und den größten Index hat, der Endpunkt des Segments werden sollte<br />
<br />
= Merkmalextraktion (ME 1 - 4) =<br />
<br />
= Morphometrische Merkmale (MM 1 - 14) =<br />
<br />
= Klassifikation (Klassifikation 1 - 20) =<br />
<br />
= Clusterverfahren (Klassifikation 21 - 38) =<br />
<br />
= Stochastische Approximation als Lernverfahren für Ebenenklassifikator (Farbpixelklassifikation 40 - 47) =<br />
<br />
<br />
[[Kategorie:Studium]]</div>DarkGhost