Du befindest dich hier: FSI Informatik » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » Mustererkennung 2009

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen der Seite angezeigt.

Link zu der Vergleichsansicht

Beide Seiten, vorherige ÜberarbeitungVorherige Überarbeitung
Nächste Überarbeitung
Vorherige Überarbeitung
Letzte ÜberarbeitungBeide Seiten, nächste Überarbeitung
pruefungen:hauptstudium:ls5:januar2009 [17.03.2009 16:44] plaxpruefungen:hauptstudium:ls5:januar2009 [31.07.2009 22:41] immoartl
Zeile 1: Zeile 1:
 ====== Mustererkennung 2009 ====== ====== Mustererkennung 2009 ======
  
-==== 17. Maerz: Me1 & Me2 ====+==== 17. März: Me1 & Me2 ====
 **Bemerkungen**\\ **Bemerkungen**\\
-  * Pruefer: Frau Angelopoulou, Herr Hornegger  +  * Prüfer: Frau Angelopoulou, Herr Hornegger  
-  * Atmosphere: typische Pruefungssituation - entspannte Pruefer, angespannter Pruefling :)+  * Atmosphäre: typische Prüfungssituation - entspannte Prüfer, angespannter Prüfling :)
  
 **Fragen** \\ **Fragen** \\
   * Big Picture    * Big Picture 
-  * Pre-Processing: Erklaeren Sie mal __Histogram Equalization__.+  * Pre-Processing: Erklären Sie mal __Histogram Equalization__.
   * Feature Extraction:    * Feature Extraction: 
     * Was ist __PCA__? \\ Bildchen     * Was ist __PCA__? \\ Bildchen
-    * Was ist __LDA__? \\ Bildchen\\ auf Nachfrage: Optimierungsproblem anhand von Fisher LDA erklaert (Formeln waren ihnen wichtig!)+    * Was ist __LDA__? \\ Bildchen\\ auf Nachfrage: Optimierungsproblem anhand von Fisher LDA erklärt (Formeln waren ihnen wichtig!)
   * Pre-Processing: Welche __nicht-linearen Filter__ kennen Sie? \\ Morphologische Filter/Rank-Order Filter: Erosion und Dilation   * Pre-Processing: Welche __nicht-linearen Filter__ kennen Sie? \\ Morphologische Filter/Rank-Order Filter: Erosion und Dilation
-  * Erklaeren Sie mal __Homomorphic Transformation__ \\  Bild multiplikativ mit Strorsignal verrauscht ->-> Logrithmus ->-> Gauss-Filterung ->-> exp()+  * Erklären Sie mal __Homomorphic Transformation__ \\  Bild multiplikativ mit Störsignal verrauscht ->-> Logarithmus ->-> Gauss-Filterung ->-> exp()
  
  
-  * Erklaeren Sie mal __SVM__ \\ Bildchen (Schlauch)+  * Erklären Sie mal __SVM__ \\ Bildchen (Schlauch)
   * Optimierungsfunktion hinschreiben\\ max C und wollte dann wohl noch a*c + a_0 >= C   * Optimierungsfunktion hinschreiben\\ max C und wollte dann wohl noch a*c + a_0 >= C
   * Constraints beachten? Wie? \\ Lagrange Multiplier nach Umformung bzgl. Normierung ->-> lambda(a*c + a_0 - 1)   * Constraints beachten? Wie? \\ Lagrange Multiplier nach Umformung bzgl. Normierung ->-> lambda(a*c + a_0 - 1)
   * Was wird bei nicht trennbaren Klassen gemacht? \\ Slack-Variablen; Optimierungsfunktion erweitern    * Was wird bei nicht trennbaren Klassen gemacht? \\ Slack-Variablen; Optimierungsfunktion erweitern 
-  * __Rosenblatt's Perceptron__ erklaeren +  * __Rosenblatt's Perceptron__ erklären 
-  * Was fuer andere Klassifikationsansaetze gibt es noch, bei denen eine lineare Entscheidungsfunktion 'herauskommt'? \\ Optimaler und gauss'scher Klassifikator, Logistic Regression. +  * Was für andere Klassifikationsansaetze gibt es noch, bei denen eine lineare Entscheidungsfunktion 'herauskommt'? \\ Optimaler und Gauss'scher Klassifikator, Logistic Regression. 
   * Was sind das jeweils fuer Optimierungsprobleme? \\ lineare, nicht lineare, quadratische ...    * Was sind das jeweils fuer Optimierungsprobleme? \\ lineare, nicht lineare, quadratische ... 
-  * Wie wuerden sie diese bzgl. des Optimierungsproblems sortieren? \\ Wollte auf ... < SVM < Rosenblatt's Perceptron raus, da letzterer mit sich aendernder Menge an falsch klassifizierten Features 'zu kaempfen' hat+  * Wie würden sie diese bzgl. des Optimierungsproblems sortieren? \\ Wollte auf ... < SVM < Rosenblatt's Perceptron raus, da letzterer mit sich ändernder Menge an falsch klassifizierten Features 'zu kämpfen' hat 
 + 
 +==== 17. März: Me1 & Me2 ==== 
 +**Bemerkungen**\\ 
 +  * Prüfer: Frau Angelopoulou, Herr Hornegger  
 + 
 +**Fragen** \\
  
-==== 17. Maerz: Me1 & Me2 ==== 
   * Big Picture   * Big Picture
-  * Sampling: \\ __Nyquist__ Theorem erklaeren\\ '>' oder '>=' bzgl. wie hohe Abtastrate? +  * Sampling: \\ __Nyquist__ Theorem erklären \\ '>' oder '>=' bzgl. wie hohe Abtastrate? 
-  * Feature Extraction: \\ __Walsh-Transformation__ erklaeren (Funktionen, Kronecker-Produkt) \\PCA: objective function hinschreiben +  * Feature Extraction: \\ __Walsh-Transformation__ erklären (Funktionen, Kronecker-Produkt) \\ PCA: objective function hinschreiben 
-  * Classification: \\ __Bayes,__ optimal? \\ ist jeder Klassifikator, der den Bayes approximiert optimal? AV-Loss, ... +  * Classification: \\ __Bayes,__ optimal? \\ Ist jeder Klassifikator, der den Bayes approximiert optimal? AV-Loss, ... 
      
-  * __SVM__ \\objective function aufschreiben +  * __SVM__ \\ //objective function// aufschreiben 
   * __Rosenblatt's Perceptron__   * __Rosenblatt's Perceptron__
-  * __HMM__\\Ausgabewahrscheinlichkeiten \\ Forward-Algorithmus (Bildchen war ihm zu wenig; Formel mit 'rausziehen') \\ Komplexitaet+  * __HMM__\\ Ausgabewahrscheinlichkeiten \\ Forward-Algorithmus (Bildchen war ihm zu wenig; Formel mit 'rausziehen') \\ Komplexität
   * __Deleted Interpolation__   * __Deleted Interpolation__
  
  
-==== xx.yy: Me1 & Me2 ====+==== Me1 & Me2 ====
  
   * Big Picture   * Big Picture