Du befindest dich hier: FSI Informatik » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » Mustererkennung 2009   (Übersicht)

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen der Seite angezeigt.

Link zu der Vergleichsansicht

Beide Seiten, vorherige ÜberarbeitungVorherige Überarbeitung
Nächste Überarbeitung
Vorherige Überarbeitung
pruefungen:hauptstudium:ls5:januar2009 [04.03.2009 11:47] 77.20.145.221pruefungen:hauptstudium:ls5:januar2009 [11.10.2009 11:56] (aktuell) katti
Zeile 1: Zeile 1:
 ====== Mustererkennung 2009 ====== ====== Mustererkennung 2009 ======
 +
 +==== 17. März: Me1 & Me2 ====
 +**Bemerkungen**\\
 +  * Prüfer: Frau Angelopoulou, Herr Hornegger 
 +  * Atmosphäre: typische Prüfungssituation - entspannte Prüfer, angespannter Prüfling :)
 +
 +**Fragen** \\
 +  * Big Picture 
 +  * Pre-Processing: Erklären Sie mal __Histogram Equalization__.
 +  * Feature Extraction: 
 +    * Was ist __PCA__? \\ Bildchen
 +    * Was ist __LDA__? \\ Bildchen\\ auf Nachfrage: Optimierungsproblem anhand von Fisher LDA erklärt (Formeln waren ihnen wichtig!)
 +  * Pre-Processing: Welche __nicht-linearen Filter__ kennen Sie? \\ Morphologische Filter/Rank-Order Filter: Erosion und Dilation
 +  * Erklären Sie mal __Homomorphic Transformation__ \\  Bild multiplikativ mit Störsignal verrauscht ->-> Logarithmus ->-> Gauss-Filterung ->-> exp()
 +
 +
 +  * Erklären Sie mal __SVM__ \\ Bildchen (Schlauch)
 +  * Optimierungsfunktion hinschreiben\\ max C und wollte dann wohl noch a*c + a_0 >= C
 +  * Constraints beachten? Wie? \\ Lagrange Multiplier nach Umformung bzgl. Normierung ->-> lambda(a*c + a_0 - 1)
 +  * Was wird bei nicht trennbaren Klassen gemacht? \\ Slack-Variablen; Optimierungsfunktion erweitern 
 +  * __Rosenblatt's Perceptron__ erklären
 +  * Was für andere Klassifikationsansaetze gibt es noch, bei denen eine lineare Entscheidungsfunktion 'herauskommt'? \\ Optimaler und Gauss'scher Klassifikator, Logistic Regression. 
 +  * Was sind das jeweils fuer Optimierungsprobleme? \\ lineare, nicht lineare, quadratische ... 
 +  * Wie würden sie diese bzgl. des Optimierungsproblems sortieren? \\ Wollte auf ... < SVM < Rosenblatt's Perceptron raus, da letzterer mit sich ändernder Menge an falsch klassifizierten Features 'zu kämpfen' hat
 +
 +==== 17. März: Me1 & Me2 ====
 +**Bemerkungen**\\
 +  * Prüfer: Frau Angelopoulou, Herr Hornegger 
 +
 +**Fragen** \\
 +
 +  * Big Picture
 +  * Sampling: \\ __Nyquist__ Theorem erklären \\ '>' oder '>=' bzgl. wie hohe Abtastrate?
 +  * Feature Extraction: \\ __Walsh-Transformation__ erklären (Funktionen, Kronecker-Produkt) \\ PCA: objective function hinschreiben
 +  * Classification: \\ __Bayes,__ optimal? \\ Ist jeder Klassifikator, der den Bayes approximiert optimal? AV-Loss, ... 
 +  
 +  * __SVM__ \\ //objective function// aufschreiben 
 +  * __Rosenblatt's Perceptron__
 +  * __HMM__\\ Ausgabewahrscheinlichkeiten \\ Forward-Algorithmus (Bildchen war ihm zu wenig; Formel mit 'rausziehen') \\ Komplexität
 +  * __Deleted Interpolation__
 +
 +
 +==== Me1 & Me2 ====
  
   * Big Picture   * Big Picture
Zeile 6: Zeile 49:
   * Feature Extraction: PCA, LDA   * Feature Extraction: PCA, LDA
   * Classification: HMMs   * Classification: HMMs
 +