Erfassung und Verarbeitung dreidimensionaler Daten
Vorstellung des Fachgebietes (E 1 - 11)
absolut uninteressant ;)
Einführung (1 - 14 & TW 17 - 18)
Anatomie des Auges
sollte weitreichend bekannt sein
Stereosehen
Horopter:
- imaginäre 3D-Kurve im Raum
- sie geht durch die Knotenpunkte der beiden Augen und den Fixationspunkt
- Punkte auf dem Horopter werden stets auf korrespondierende Punkte auf beiden Netzhäuten abgebildet
- nicht auf dem Horopter liegende Punkte gehören nicht zu korrespondieren Bildpunkten und führen zu Doppelbildern
- außerhalb: nicht gekreuzte Doppelbilder
- innerhalb: gekreuzte Doppelbilder
Zyklopenauge:
- liegt auch auf dem Horopter
- befindet sich in der Mitte der beiden Augen, senkrecht zum Fixationspunkt
Tiefenwahrnehmung
- Tiefeninformation kann mittels zweier Bilder gewonnen werden (menschliches binokulares Sehen)
Panum-Bereich:
- der Bereich um den Horopter, in dem eine Fusion der Stereobilder möglich ist
- wird dieser Bereich überschritten kommt es zu einer binokularen Rivalität, bei der sich eine monokulare Ansicht schließlich durchsetzt
Disparität:
- bezeichnet die Differenz zwischen den seitlichen Positionen eines Objektes, welches auf die Retina/Bildebene des linken und rechten Auges abgebildet wird
- Objekte auf dem Horopter haben stets die Disparität Null
Probleme beim Tiefensehen (Korrespondenproblem)
- Fehlzuordnung der Schnittpunkte der Sehgeraden, führt zu falscher Objekttiefe
- bei n Merkmalen pro Auge ergeben sich n! mögliche Zuordnungen
- aber jede Zuordnung führt zu einer anderen räumlichen Interpretation
- jedoch nur eine ist richtig
Technische Grundsätze der 3D-Datenerfasung (Ü-TGA 1 - 34)
- größtenteils nur Beispiele gezeigt
optische 3D-Messverfahren
Verarbeitung von 3D-Daten
siehe auch Kapitel 14 - dort werden die Verfahren genauer beschrieben
- Detektion von Ausreißern
- Beseitigung zwingend erforderlich
- stören Folgeoperationen erheblich
- Registrierung von Teilansichten
- Ganzkörpererfassung erfordert mehrere Teilansichten
- Marken nur in Ausnahmesituationen möglich
- Problem: es existieren keine korrespondieren Punkte
- Homogenisierung
- Entfernen oder Zusammenfassen von Punkten unter Beachtung von Objektstruktur und verfügbarer Punktdichte
- Regularisierung, Verdichtung
- Problem: fehlende Messwerte durch Fehlmessung oder hoher räumlicher Gradient in Messrichtung
- Lösung: Interpolation zur Erzeugung gleichmäßiger Punktdichten
- Segmentierung von Regelgeometrien und Randkurven
- Regelgeometrien z.B. Kugel, Zylinder, Quader, Ebene, etc.
- Trennung der Objekte/Punktwolken in Freiformanteile (für Weiterverarbeitung wichtig)
- Handsegmentierung führt zu erheblichen Fehlern
- Triangulation
- bedeutsam für Beschreibung von Freiformflächen
- 2,5D-Daten leicht triangulierbar
- bei 3D-Daten schwieriger
- Homogenisierung von Triangulationen
- Vermessung von Regelgeometrien
- Extraktion von 3D-Merkmalen
- Extraktion der Paramter der Regelgeometrien aus segmentierten Teilpunktewolken
- Vergleich mit CAD-Daten
Geometrische Transformationen (GT 1 - 18)
Bedeutung:
- affine Transformationen zur Beschreibung der geometrischen Anordnung der Elemente (Messgeräte, Lichtquellen, etc.)
- planare Projektionen zur Beschreibung der Abbildung in der Kamera
- beides zusammen bildet Basis für 3D-Rekonstruktion
Affine Transformationen:
- zur Modellierung komplexer Szenen müssen Objekte verschoben, gedreht, skaliert und gespiegelt werden
- meist auch Transformation von Koordinatensystemen notwendig
- deshalb affine Transformationen nutzen:
- Translation
- Rotation
- Skalierung
- Scherung
- Spiegelung
Affine Abbildungen
- Objekte in einer Ebene E1, die auf eine parallele Ebene E2 abgebildet werden sind kongruent
- wenn E2 aber nicht parallel zu E1 ist ergibt sich eine affine Verwandschaft zwischen den Objekten
- Eigenschaften:
- Geraden bleiben Geraden
- parallele Geraden bleiben parallel
- Teilverhältnisse der Abstände zwischen entsprechenden Punkten auf einer Geraden bleibt gleich
- Abstände selbst bleiben nicht gleich
- Winkel zwischen Geraden bleiben nicht erhalten
Fazit:
Eine affine Abbildung lässt sich durch eine lineare Transformation (Rotation, Skalierung, Scherung, Spiegelung) und eine Translation realisieren.
planare Projektionen
- die planare Transformation macht es möglich aus 2D-Bildern 3D-Daten zu extrahieren
- dadurch können 3D-Objekte berührungslos vermessen werden
- benötigt wird hierfür:
- Parallelprojektion
- Zentralprojektion
- für eine einfache Handhabung der Zentralprojektion sind projektive Räume und homogene Koordinaten notwendig
Parallel- & Zentralprojektion
- Abbildung des Raumes auf die Ebene lässt sich durch Parallel- oder Zentralprojektion realisieren
Parallelprojektion:
- ähnelt affinen Transformationen
- mit Dimensionsreduktion verbunden
- stellt den Grenzfall für den Augpunkt im Unendlichen dar
- technische Realisierung: telezentrische Abbildung
Zentralprojektion:
- wesentliche Unterschiede zu affinen Transformationen
- jeder Objektpunkt wird durch seine Raumtiefe dividiert
- Parallelität der Geraden und gleiche Teilverhältnisse der Abstände bleiben nicht erhalten
Projektive Räume und homogene Koordinaten
Probleme bei affinen Transformationen:
- mathematische Operationen können nicht zu einer Matrix zusammengefasst werden
- Ebene Projektionen sind nicht integrierbar
- Unendlich ferne Punkte, Geraden, Ebenen etc. sind analytisch nicht beschreibbar
Deshalb Einführung von projektiven Räumen und homogenen Koordinaten
Ziel:
- Vereinheitlichung der Transformationen
- Integration der genannten Aspekte
Konstruktion der projektiven Ebene: [...]
// ich habe noch nicht rausgefunden was er uns eigentlich sagen will
3D-Datenerfasung (mbs 1 - 50)
Monokulare Verfahren
Shape from motion
- Bewegungswahrnehmungen sind wesentliche Elemente zur visuellen Interpretation der Umwelt
[...]
Optical Flow
[...]
Shape from shading
[...]
Shape from texture
[...]
Binokulare Verfahren
Stereo
[...]
Réseau-Technik
[...]
Korrespondenzanalyse (KA-C 1 - 23)
[...]
Intensitätsbasierte Verfahren (KA 1 - 27)
[...]
Titel | Seite |
---|---|
MAD | 2 |
Blockmatching - Verfahren | 3 - 5 |
Kreuzkorrelation und Kreuzkovarianz | 6 - 10 |
Polynokulare Verfahren | KA 26 - 27 |
MAD
Mean Absolute Difference (MAD) ist die Mittlere pixelweise absolute Differenz zweier Korelationsfenster. Im Script wird die normierte Variante genannt:
bzw. die follgende allgemeine Variante (keine Scanlinerichtung vorgegeben wie oben)
MSE
Mean Square Error (MSE) ist die Mittlere quadratische Differenz zweier Korelationsfenster. Im Script wird folgende Variante genannt:
Blockmatching - Verfahren
[...]
Kreuzkorrelation und Kreuzkovarianz
Kreuzkorrelation:
Kreuzkovarianz:
[...]
Varianz (für normierte Kreuzkorelation):
[...]
Normierte Kreuzkorelation:
Ja klar
Merkmalsbasiert
[...]
Weitere Verfahren
unwichtig (denk ich)
Polynokulare Verfahren
[...]
Oberfläschenbestimmung mit strukturiertem Licht (sLi 1 - 20)
sLi 1 - 20
Wie bei Stereokamerasystemen, wird hier mit zwei verschieden Blick-/Projektionsrichtung gearbeitet. Der Unterschied ist nur, dass der Strahlengang hierbei vom Projektor auf die Szene fällt und die remitierte Strahlung von der Kamera aufgenommen wird. [...]
Schnitt-Techniken (STe 1 - 29)
Gewinnung der 3.Dimenenion aus einem Stapel von Schnitten.
- Nach Kontrast: Hierbei können z.B. nur scharfe Bereiche in ein Gesamtbild übernommen werden (extended fokus). Hier ist eine relativ aufwendige Analyse (z.B. Bestimmung der Gradienten) des Stapels notwendig.
- Nach Intensität: [...]
- [...]
Konfokale Mikroskopie
Konfokale Laser-Raster-Mikroskopie
Bei der konfokalen Laser-Raster-Mikroskopie wird der Laserstrahl so in die Optik eingekoppelt, dass der Fokuspunkt des Laserlichtes gleichzeitig der Punkt ist, dessen remittierte Strahlen genau durch die Lochblende fallen.
Man könnte jetzt dem Trugschluß erliegen, dass es doch egal ist, wie weit das Objekt vom Fokuspunkt weg ist, da sich der Strahlengang des Lasers in gleicher Weise wie der der Abbildungsoptik ändert. So bildet sich wenn das Objekt außerhalt des Fokus liegt eine kreisrunde Fläche die beleuchtet wird und alles Licht was in die gleiche Richtung wieder zurückgestrahlt wird, wird durch die Lochblende auf den Sensor fallen. Also könnte man annehmen, dass die gesamte Energie wieder auf dem Sensor ankommt. Das ist aber nur der Fall wenn jede beleuchtete Fläche das gesamte Licht (ähnlich wie bei einem Reflektor) genau zur Lichtquelle zurückwirft. Da aber in diesem Fall auch Licht in andere Richtungen gestreut wird fällt die Lichtausbeute auf dem Sensor geringer aus.
Liegt das Objekt aber im Fokus kann auch ein Großteil des remittierten Lichts eingefangen werden, da es eine Vielzahl von Richtungen gibt die durch die Lochblende führen.
Konfokale Lichtmikroskopie
Gleicher Ansatz wie oben. Nur wird hier das Pinhole verschoben (Nipkow-Scheibe) um die verschieden Positionen abzutasten.
[...]
Computer Tomography
Eine Seite mit einem nicht wirklich tollem Verfahren.
Röntgenquelle wird im gleichen Verhältnis wie der Film verschoben. Das folgt dazu, dass ein Punkt immer an die gleiche Stelle abgebildet wird. Alle anderen Punkte werden (abhängig von ihrer Entfernung) breit geschmiert, also auch auf den interessanten Punkt.
Axial Computer Tomography
[...]
Fokusserien (FS 1 - 19)
[...]
Weißlichtinterferometrie (WLI 1 - 22)
Kohärenzläge: [Erklärung]
[...]
Subpixeling (SuPi 1 - 37)
[...]
MEAN-Algorithmus (Schwerpunkt) für Punktobjejkte
Wie bei der physikalischen Bestimmung des Massenmittelpunkt
wird hier über ortsabhäging gewichteten Intensitätswert integriert und druch die Gesammt Intensität geteilt (normiert). Hinweis: Im Script sind die Integrale in pysikalischen Schreibweise zu lesen. Des weitern wird nur eine Richtung betrachtet (x-Richtung) um die x-Koordinate des Schwerpunktes zu errechen. Analog könnte dann für die y-Richtung verfahren werden (d.h. die Schwerpunktbestimmung ist seperaierbar).
Ansatz (für die x-Koordinate des Schwerpunktes)
Da nur die die x-Richtung betrachtet wird ist das Integral über unabhänig von x und mit ergibt sich:
Vereinfachung des Koordinatensystems
(Jetzt wird es lustig) Durch die Substitution mit soll das Ergebnis nur noch die Abweichung des Schwerpunktes von der Mitte des Messfensters angeben. Vergleicht man die resultierende Formel:
mit der oben stehenden, so fällt auf, dass sich die Formel nicht geändert hat, sondern nur das Koordinatensystem. D.h. läßt auch einfach duch nachträglichs verschiben von berechen:
Auswertung der Pixelsignale
[...]
Bewertung
[...]
Der MEDIAN-Algorithmus
Genau wie mein Median-Algorithmus in der Bildverarbetung wird die Mitte hier so gewählt, dass die links und rechts eingeschlossenen Flächen gleich groß sind. Bei der Bildverarbeitung wäre jetzt der Funktionswert an der Mitte von interesse, hier wird ist aber nur die Position der Mitte von Bedeutung.
Ansatz
[...]
Auswertung der Pixelsignale
[Konfuse Herleitung - stimmt aber]
mit gemäß:
Bewertung
[...]
Parabelalgorithmus
Idee ist die Aproximation der Intensitätsverteilung an der zu analysierenden Stelle durch eine Parabel.
Der Mittelpunkt ist dann am Maximum.
Ansatz
Über Fehlerquadratmehtode:
Auswertung der Pixelsignale
[...]
Bewertung
[...]
Halbpixel-Median
[...]
Maximum - Likelihood - Prinzip
[...]
[...]
Subpixeling bei Kanten (SuKa 1 - 16)
[...]
Punktewolken (PW 1 - 61)
Wurde nicht in der VL behandelt (auskommentiert)
EOF