Du befindest dich hier: FSI Informatik » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » Pattern Recognition, Pattern Analysis   (Übersicht)

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen der Seite angezeigt.

Link zu der Vergleichsansicht

Nächste Überarbeitung
Vorherige Überarbeitung
pruefungen:hauptstudium:ls5:pr_paokt2009 [11.10.2009 11:32] – angelegt kattipruefungen:hauptstudium:ls5:pr_paokt2009 [11.10.2009 11:59] (aktuell) katti
Zeile 1: Zeile 1:
 ==== Pattern Recognition, Pattern Analysis ==== ==== Pattern Recognition, Pattern Analysis ====
 **Prüfer:** Elli Angelopoulou, Joachim Hornegger **Prüfer:** Elli Angelopoulou, Joachim Hornegger
-  * Atmosphäre: angespannter Prüfling, sehr nette Prüfer+  * Atmosphäre: angespannter Prüfling, sehr nette Prüfer\\ 
 +                    Haben es nicht angekreidet, wenn man zu hastig sein will und vielleicht wenige kleine Fehler macht. Zum Beispiel: Wo werden die Vektoren in der Gleichung transponiert? Man kann dann noch schnell korrigieren. 
  
 === PR === === PR ===
   * Big Picture   * Big Picture
-  * Histogram Equalization +  * Histogram Equalization: \\ 
-  * Thresholding (was ist daswelche Verfahren? Binarization nicht vergessen! ;) ) +      * Was ist das? Was kommt raus? Wie sind die Werte verteilt?\\ 
-  * PCA (allgemein erklaeren, s1(Φ)-Formel) +  * Thresholding:  
-  * Heuristische FE-Verfahren (allgemein, man konnte sich Verfahren aussuchen: FourierWalsh)+      * Was ist ein Threshold 
 +      * Welche Werte hat ein Threshold-> Binarization 
 +      * Welche Verfahren? -> Habe iterative Methode erklärt mit "Intersection of 2 Gaussians" 
 +  * PCA
 +      * hatte erstmal allgemein erklärtdann s1(Φ)-Formel, Q-Matrix, Eigenvektoren und -werte erklärt 
 +  * Heuristische FE-Verfahren:  
 +      * allgemein, man konnte sich Verfahren aussuchen: hatte Fourier und Walsh erklärt ohne Formeln hinschreiben zu müssen
  
 === PA === === PA ===
-  * PCA (ProblematikGröße Kovarianzmatrix) +  * PCA
-  * Kernel-PCA (Herleitung der Formeln) +      * ProblematikGröße der Kovarianzmatrix  
-  * Kernels allgemein (ungefragt...)+      * Beispiel gegeben: Bild der Größe 1024x1024 -> Wie groß Q-Matrix? Wieviel Speicher? 
 +  * Kernel-PCA  
 +      * erstmal allgemein angefangen, welche Eigenschaften die Kernel-Matrix haben muss 
 +      * Danach Herleitung der Formel von PCA zu Kernel-PCA 
 +  * Normen 
 +      * L1- und L2-Norm anhand Formel und Skizze erklärt 
 +      * Was ist Lasso? -> erklärt welche Norm und deren Problematik
   * SVM   * SVM
-  * Logistic Regression+      Was ist das? 
 +      * allgemein alles erklärt anhand einer Skizze und Unterschied zwischen Hard und Soft Margin 
 +  * gegeben eine Linie: d = ax + a_0 
 +      * Wie bekommt man die a posteriori Wahrscheinlichkeit? -> Logistic Regression 
 +      * Gegeben eine Linie: d = a*x + a_0. Wie schaut dann die a posteriori Wahrscheinlichkeit aus? -> 1/(1+ exp(a*x + a_0 - d)) 
 +