====== Computer Vision ====== * **Datum:** Oktober 2013 * **Prüferin:** Elli Angelopoulou * **Beisitzer:** ?? * **Art der Prüfung:** Benoteter Schein über 7.5 ECTS * **Note:** 1.0 Prozedere wie gehabt, Fragen werden auf Englisch gestellt, antworten kann man Deutsch/Englisch/Griechisch. Prüfungsklima war sehr locker. == Image Formation: == * zeichne und erkläre eine pinhole camera -> spiegelverkehrte, auf dem Kopf stehende Bilder der Szene * (echte pinhole cameras weisen Probleme auf -> Linsen verwenden) \\ schreibe das thin-lens-law auf -> 1/z + 1/Z = 1/f * schreibe die Formeln von radiance und irradiance auf und erkläre beide (am besten anhand von Zeichnungen) -> siehe Skript (wichtig ist denke ich: radiance richtungsabhängig, irradiance nicht) * Wollte die lange Formel fuer E nicht wissen. Bei L = d^2P/(dw*dA*cos(Theta)) wurde speziell nach dw und Theta gefragt -> Skizze * inklusive allgemeine Beschreibung was die Begriffe bedeuten == Textures: == * es werden spot und bar filters verwendet, wie werden die ausgedrückt -> gewichtete Summe von Normalverteilungen, einmal symmetrisch, einmal lang gezogen über unterschiedliche Varianzen in x/y * Formel für 2D-Normalverteilung mit unterschiedlichem sigma_x und sigma_y und nicht-0 mean * Skizzen der Gausssummen (war aber wohl nicht noetig) == Color: == * 3 Eigenschaften von Grassmans Law erklären * -> T_a + T_b = ... * -> Wenn w_(ai) = w_(bi) fuer alle i, dann sind Farben gleich * -> k * T_b = (k*w_(b1))* P_1 + ... == Multi-View Geometry: == * zeichne und erkläre die epipolar geometry -> epipolar plane aufgespannt durch O, O‘ und P; epipolar lines Schnitt der epipolar plane mit Bildebenen; epipole Schnitt der epipolar line mit der baseline; epipolar constraint: die Bilder eines Punktes müssen auf den entsprechenden epipolar lines liegen * Daher wird Suchproblem auf 1D eingeschraenkt * gib die analytische Beschreibung der epipolar geometry an -> essential / fundamental matrix * schreib die Formeln für beide hin -> p^TEp‘=0, F=K^{-T}E(K‘)^{-1} * Und wenn man nun die selbe Kamera nimmt und zwei Bilder macht (inklusive verschieben) -> K = K' == Motion: == * optical flow (2D, subjektive warhnehmung) vs. motion field (projektion der eigentlichen bewegung): definition und unterschied * Wollte nicht ins Detail gehen, Barber Pole war schon zu viel :) == State Estimation: == **Kalman Filters** * erkläre das Framework eines Kalman-Filters -> linear dynamic system mit gaussian noise * schreibe die state transition Formeln dafür auf -> siehe Skript (die Formeln vom Kalman-Filter selbst waren nicht gefragt) * prediction step -> innovation step (-> update step) mit den Matrixmult + Noise Formeln * Posterior p(x_k|z_(1:k)) ~ N(x_k, P_k) wird maximiert, ist normalverteilt => Max bei Mittelwert (Posterior Formel nicht verlangt) **Particle Filters** * erkläre im Gegensatz dazu Particle Filters (welche Voraussetzungen machen diese?) -> sehr allgemein, arbeitet mit einem bayesian framework * wie wird posterior bestimmt -> nicht explizit, sondern über samples (-> particles) aus einer anderen Verteilung q(x), Gewichte w_i = p(x_i) / q(x_i) * Gewichte, da p() != q() * kleine Skizze zu moeglichen p() und q() inklusive Gewichte * Posterior wird durch x_k^i angenaehert, wobei zugehoeriges Gewicht zum Partikel i w_k^i = max(w_k)