Du befindest dich hier: FSI Informatik » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » Mustererkennung 2009   (Übersicht)

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen der Seite angezeigt.

Link zu der Vergleichsansicht

Beide Seiten, vorherige ÜberarbeitungVorherige Überarbeitung
Nächste Überarbeitung
Vorherige Überarbeitung
pruefungen:hauptstudium:ls5:januar2009 [31.07.2009 22:35] immoartlpruefungen:hauptstudium:ls5:januar2009 [11.10.2009 11:56] (aktuell) katti
Zeile 1: Zeile 1:
 ====== Mustererkennung 2009 ====== ====== Mustererkennung 2009 ======
  
-==== 17. Maerz: Me1 & Me2 ====+==== 17. März: Me1 & Me2 ====
 **Bemerkungen**\\ **Bemerkungen**\\
   * Prüfer: Frau Angelopoulou, Herr Hornegger    * Prüfer: Frau Angelopoulou, Herr Hornegger 
Zeile 8: Zeile 8:
 **Fragen** \\ **Fragen** \\
   * Big Picture    * Big Picture 
-  * Pre-Processing: Erklaeren Sie mal __Histogram Equalization__.+  * Pre-Processing: Erklären Sie mal __Histogram Equalization__.
   * Feature Extraction:    * Feature Extraction: 
     * Was ist __PCA__? \\ Bildchen     * Was ist __PCA__? \\ Bildchen
-    * Was ist __LDA__? \\ Bildchen\\ auf Nachfrage: Optimierungsproblem anhand von Fisher LDA erklaert (Formeln waren ihnen wichtig!)+    * Was ist __LDA__? \\ Bildchen\\ auf Nachfrage: Optimierungsproblem anhand von Fisher LDA erklärt (Formeln waren ihnen wichtig!)
   * Pre-Processing: Welche __nicht-linearen Filter__ kennen Sie? \\ Morphologische Filter/Rank-Order Filter: Erosion und Dilation   * Pre-Processing: Welche __nicht-linearen Filter__ kennen Sie? \\ Morphologische Filter/Rank-Order Filter: Erosion und Dilation
-  * Erklaeren Sie mal __Homomorphic Transformation__ \\  Bild multiplikativ mit Strorsignal verrauscht ->-> Logarithmus ->-> Gauss-Filterung ->-> exp()+  * Erklären Sie mal __Homomorphic Transformation__ \\  Bild multiplikativ mit Störsignal verrauscht ->-> Logarithmus ->-> Gauss-Filterung ->-> exp()
  
  
-  * Erklaeren Sie mal __SVM__ \\ Bildchen (Schlauch)+  * Erklären Sie mal __SVM__ \\ Bildchen (Schlauch)
   * Optimierungsfunktion hinschreiben\\ max C und wollte dann wohl noch a*c + a_0 >= C   * Optimierungsfunktion hinschreiben\\ max C und wollte dann wohl noch a*c + a_0 >= C
   * Constraints beachten? Wie? \\ Lagrange Multiplier nach Umformung bzgl. Normierung ->-> lambda(a*c + a_0 - 1)   * Constraints beachten? Wie? \\ Lagrange Multiplier nach Umformung bzgl. Normierung ->-> lambda(a*c + a_0 - 1)
   * Was wird bei nicht trennbaren Klassen gemacht? \\ Slack-Variablen; Optimierungsfunktion erweitern    * Was wird bei nicht trennbaren Klassen gemacht? \\ Slack-Variablen; Optimierungsfunktion erweitern 
-  * __Rosenblatt's Perceptron__ erklaeren +  * __Rosenblatt's Perceptron__ erklären 
-  * Was fuer andere Klassifikationsansaetze gibt es noch, bei denen eine lineare Entscheidungsfunktion 'herauskommt'? \\ Optimaler und gauss'scher Klassifikator, Logistic Regression. +  * Was für andere Klassifikationsansaetze gibt es noch, bei denen eine lineare Entscheidungsfunktion 'herauskommt'? \\ Optimaler und Gauss'scher Klassifikator, Logistic Regression. 
   * Was sind das jeweils fuer Optimierungsprobleme? \\ lineare, nicht lineare, quadratische ...    * Was sind das jeweils fuer Optimierungsprobleme? \\ lineare, nicht lineare, quadratische ... 
-  * Wie wuerden sie diese bzgl. des Optimierungsproblems sortieren? \\ Wollte auf ... < SVM < Rosenblatt's Perceptron raus, da letzterer mit sich aendernder Menge an falsch klassifizierten Features 'zu kaempfen' hat+  * Wie würden sie diese bzgl. des Optimierungsproblems sortieren? \\ Wollte auf ... < SVM < Rosenblatt's Perceptron raus, da letzterer mit sich ändernder Menge an falsch klassifizierten Features 'zu kämpfen' hat
  
-==== 17. Maerz: Me1 & Me2 ====+==== 17. März: Me1 & Me2 ====
 **Bemerkungen**\\ **Bemerkungen**\\
-  * Pruefer: Frau Angelopoulou, Herr Hornegger +  * Prüfer: Frau Angelopoulou, Herr Hornegger 
  
 **Fragen** \\ **Fragen** \\
  
   * Big Picture   * Big Picture
-  * Sampling: \\ __Nyquist__ Theorem erklaeren\\ '>' oder '>=' bzgl. wie hohe Abtastrate? +  * Sampling: \\ __Nyquist__ Theorem erklären \\ '>' oder '>=' bzgl. wie hohe Abtastrate? 
-  * Feature Extraction: \\ __Walsh-Transformation__ erklaeren (Funktionen, Kronecker-Produkt) \\PCA: objective function hinschreiben +  * Feature Extraction: \\ __Walsh-Transformation__ erklären (Funktionen, Kronecker-Produkt) \\ PCA: objective function hinschreiben 
-  * Classification: \\ __Bayes,__ optimal? \\ ist jeder Klassifikator, der den Bayes approximiert optimal? AV-Loss, ... +  * Classification: \\ __Bayes,__ optimal? \\ Ist jeder Klassifikator, der den Bayes approximiert optimal? AV-Loss, ... 
      
-  * __SVM__ \\objective function aufschreiben +  * __SVM__ \\ //objective function// aufschreiben 
   * __Rosenblatt's Perceptron__   * __Rosenblatt's Perceptron__
-  * __HMM__\\Ausgabewahrscheinlichkeiten \\ Forward-Algorithmus (Bildchen war ihm zu wenig; Formel mit 'rausziehen') \\ Komplexitaet+  * __HMM__\\ Ausgabewahrscheinlichkeiten \\ Forward-Algorithmus (Bildchen war ihm zu wenig; Formel mit 'rausziehen') \\ Komplexität
   * __Deleted Interpolation__   * __Deleted Interpolation__
  
  
-==== xx.yy: Me1 & Me2 ====+==== Me1 & Me2 ====
  
   * Big Picture   * Big Picture
Zeile 49: Zeile 49:
   * Feature Extraction: PCA, LDA   * Feature Extraction: PCA, LDA
   * Classification: HMMs   * Classification: HMMs
-