Du befindest dich hier: FSI Informatik » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » Mustererkennung 2009

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen der Seite angezeigt.

Link zu der Vergleichsansicht

Beide Seiten, vorherige ÜberarbeitungVorherige Überarbeitung
Nächste Überarbeitung
Vorherige Überarbeitung
Nächste ÜberarbeitungBeide Seiten, nächste Überarbeitung
pruefungen:hauptstudium:ls5:januar2009 [04.03.2009 11:47] 77.20.145.221pruefungen:hauptstudium:ls5:januar2009 [31.07.2009 22:41] immoartl
Zeile 1: Zeile 1:
 ====== Mustererkennung 2009 ====== ====== Mustererkennung 2009 ======
 +
 +==== 17. März: Me1 & Me2 ====
 +**Bemerkungen**\\
 +  * Prüfer: Frau Angelopoulou, Herr Hornegger 
 +  * Atmosphäre: typische Prüfungssituation - entspannte Prüfer, angespannter Prüfling :)
 +
 +**Fragen** \\
 +  * Big Picture 
 +  * Pre-Processing: Erklären Sie mal __Histogram Equalization__.
 +  * Feature Extraction: 
 +    * Was ist __PCA__? \\ Bildchen
 +    * Was ist __LDA__? \\ Bildchen\\ auf Nachfrage: Optimierungsproblem anhand von Fisher LDA erklärt (Formeln waren ihnen wichtig!)
 +  * Pre-Processing: Welche __nicht-linearen Filter__ kennen Sie? \\ Morphologische Filter/Rank-Order Filter: Erosion und Dilation
 +  * Erklären Sie mal __Homomorphic Transformation__ \\  Bild multiplikativ mit Störsignal verrauscht ->-> Logarithmus ->-> Gauss-Filterung ->-> exp()
 +
 +
 +  * Erklären Sie mal __SVM__ \\ Bildchen (Schlauch)
 +  * Optimierungsfunktion hinschreiben\\ max C und wollte dann wohl noch a*c + a_0 >= C
 +  * Constraints beachten? Wie? \\ Lagrange Multiplier nach Umformung bzgl. Normierung ->-> lambda(a*c + a_0 - 1)
 +  * Was wird bei nicht trennbaren Klassen gemacht? \\ Slack-Variablen; Optimierungsfunktion erweitern 
 +  * __Rosenblatt's Perceptron__ erklären
 +  * Was für andere Klassifikationsansaetze gibt es noch, bei denen eine lineare Entscheidungsfunktion 'herauskommt'? \\ Optimaler und Gauss'scher Klassifikator, Logistic Regression. 
 +  * Was sind das jeweils fuer Optimierungsprobleme? \\ lineare, nicht lineare, quadratische ... 
 +  * Wie würden sie diese bzgl. des Optimierungsproblems sortieren? \\ Wollte auf ... < SVM < Rosenblatt's Perceptron raus, da letzterer mit sich ändernder Menge an falsch klassifizierten Features 'zu kämpfen' hat
 +
 +==== 17. März: Me1 & Me2 ====
 +**Bemerkungen**\\
 +  * Pruefer: Frau Angelopoulou, Herr Hornegger 
 +
 +**Fragen** \\
 +
 +  * Big Picture
 +  * Sampling: \\ __Nyquist__ Theorem erklären \\ '>' oder '>=' bzgl. wie hohe Abtastrate?
 +  * Feature Extraction: \\ __Walsh-Transformation__ erklären (Funktionen, Kronecker-Produkt) \\ PCA: objective function hinschreiben
 +  * Classification: \\ __Bayes,__ optimal? \\ Ist jeder Klassifikator, der den Bayes approximiert optimal? AV-Loss, ... 
 +  
 +  * __SVM__ \\ //objective function// aufschreiben 
 +  * __Rosenblatt's Perceptron__
 +  * __HMM__\\ Ausgabewahrscheinlichkeiten \\ Forward-Algorithmus (Bildchen war ihm zu wenig; Formel mit 'rausziehen') \\ Komplexität
 +  * __Deleted Interpolation__
 +
 +
 +==== Me1 & Me2 ====
  
   * Big Picture   * Big Picture
Zeile 6: Zeile 49:
   * Feature Extraction: PCA, LDA   * Feature Extraction: PCA, LDA
   * Classification: HMMs   * Classification: HMMs
 +
 +