==== Pattern Recognition, Pattern Analysis ==== **Prüfer:** Elli Angelopoulou, Joachim Hornegger * Atmosphäre: angespannter Prüfling, sehr nette Prüfer\\ Haben es nicht angekreidet, wenn man zu hastig sein will und vielleicht wenige kleine Fehler macht. Zum Beispiel: Wo werden die Vektoren in der Gleichung transponiert? Man kann dann noch schnell korrigieren. === PR === * Big Picture * Histogram Equalization: \\ * Was ist das? Was kommt raus? Wie sind die Werte verteilt?\\ * Thresholding: * Was ist ein Threshold? * Welche Werte hat ein Threshold? -> Binarization * Welche Verfahren? -> Habe iterative Methode erklärt mit "Intersection of 2 Gaussians" * PCA: * hatte erstmal allgemein erklärt, dann s1(Φ)-Formel, Q-Matrix, Eigenvektoren und -werte erklärt * Heuristische FE-Verfahren: * allgemein, man konnte sich Verfahren aussuchen: hatte Fourier und Walsh erklärt ohne Formeln hinschreiben zu müssen === PA === * PCA: * Problematik: Größe der Kovarianzmatrix * Beispiel gegeben: Bild der Größe 1024x1024 -> Wie groß Q-Matrix? Wieviel Speicher? * Kernel-PCA * erstmal allgemein angefangen, welche Eigenschaften die Kernel-Matrix haben muss * Danach Herleitung der Formel von PCA zu Kernel-PCA * Normen * L1- und L2-Norm anhand Formel und Skizze erklärt * Was ist Lasso? -> erklärt welche Norm und deren Problematik * SVM * Was ist das? * allgemein alles erklärt anhand einer Skizze und Unterschied zwischen Hard und Soft Margin * gegeben eine Linie: d = ax + a_0 * Wie bekommt man die a posteriori Wahrscheinlichkeit? -> Logistic Regression * Gegeben eine Linie: d = a*x + a_0. Wie schaut dann die a posteriori Wahrscheinlichkeit aus? -> 1/(1+ exp(a*x + a_0 - d))