Sie befinden sich hier: Termine » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » Pattern Recognition, Pattern Analysis   (Übersicht)

Pattern Recognition, Pattern Analysis

Prüfer: Elli Angelopoulou, Joachim Hornegger

  • Atmosphäre: angespannter Prüfling, sehr nette Prüfer

Haben es nicht angekreidet, wenn man zu hastig sein will und vielleicht wenige kleine Fehler macht. Zum Beispiel: Wo werden die Vektoren in der Gleichung transponiert? Man kann dann noch schnell korrigieren.

PR

  • Big Picture
  • Histogram Equalization:
    • Was ist das? Was kommt raus? Wie sind die Werte verteilt?
  • Thresholding:
    • Was ist ein Threshold?
    • Welche Werte hat ein Threshold? → Binarization
    • Welche Verfahren? → Habe iterative Methode erklärt mit „Intersection of 2 Gaussians“
  • PCA:
    • hatte erstmal allgemein erklärt, dann s1(Φ)-Formel, Q-Matrix, Eigenvektoren und -werte erklärt
  • Heuristische FE-Verfahren:
    • allgemein, man konnte sich Verfahren aussuchen: hatte Fourier und Walsh erklärt ohne Formeln hinschreiben zu müssen

PA

  • PCA:
    • Problematik: Größe der Kovarianzmatrix
    • Beispiel gegeben: Bild der Größe 1024×1024 → Wie groß Q-Matrix? Wieviel Speicher?
  • Kernel-PCA
    • erstmal allgemein angefangen, welche Eigenschaften die Kernel-Matrix haben muss
    • Danach Herleitung der Formel von PCA zu Kernel-PCA
  • Normen
    • L1- und L2-Norm anhand Formel und Skizze erklärt
    • Was ist Lasso? → erklärt welche Norm und deren Problematik
  • SVM
    • Was ist das?
    • allgemein alles erklärt anhand einer Skizze und Unterschied zwischen Hard und Soft Margin
  • gegeben eine Linie: d = ax + a_0
    • Wie bekommt man die a posteriori Wahrscheinlichkeit? → Logistic Regression
    • Gegeben eine Linie: d = a*x + a_0. Wie schaut dann die a posteriori Wahrscheinlichkeit aus? → 1/(1+ exp(a*x + a_0 - d))