Du befindest dich hier: FSI Informatik » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » Mustererkennung 2009

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen der Seite angezeigt.

Link zu der Vergleichsansicht

Beide Seiten, vorherige ÜberarbeitungVorherige Überarbeitung
Nächste Überarbeitung
Vorherige Überarbeitung
Letzte ÜberarbeitungBeide Seiten, nächste Überarbeitung
pruefungen:hauptstudium:ls5:januar2009 [31.07.2009 22:37] immoartlpruefungen:hauptstudium:ls5:januar2009 [31.07.2009 22:41] immoartl
Zeile 1: Zeile 1:
 ====== Mustererkennung 2009 ====== ====== Mustererkennung 2009 ======
  
-==== 17. Maerz: Me1 & Me2 ====+==== 17. März: Me1 & Me2 ====
 **Bemerkungen**\\ **Bemerkungen**\\
   * Prüfer: Frau Angelopoulou, Herr Hornegger    * Prüfer: Frau Angelopoulou, Herr Hornegger 
Zeile 25: Zeile 25:
   * Wie würden sie diese bzgl. des Optimierungsproblems sortieren? \\ Wollte auf ... < SVM < Rosenblatt's Perceptron raus, da letzterer mit sich ändernder Menge an falsch klassifizierten Features 'zu kämpfen' hat   * Wie würden sie diese bzgl. des Optimierungsproblems sortieren? \\ Wollte auf ... < SVM < Rosenblatt's Perceptron raus, da letzterer mit sich ändernder Menge an falsch klassifizierten Features 'zu kämpfen' hat
  
-==== 17. Maerz: Me1 & Me2 ====+==== 17. März: Me1 & Me2 ====
 **Bemerkungen**\\ **Bemerkungen**\\
-  * Pruefer: Frau Angelopoulou, Herr Hornegger +  * Prüfer: Frau Angelopoulou, Herr Hornegger 
  
 **Fragen** \\ **Fragen** \\
  
   * Big Picture   * Big Picture
-  * Sampling: \\ __Nyquist__ Theorem erklaeren\\ '>' oder '>=' bzgl. wie hohe Abtastrate? +  * Sampling: \\ __Nyquist__ Theorem erklären \\ '>' oder '>=' bzgl. wie hohe Abtastrate? 
-  * Feature Extraction: \\ __Walsh-Transformation__ erklaeren (Funktionen, Kronecker-Produkt) \\PCA: objective function hinschreiben +  * Feature Extraction: \\ __Walsh-Transformation__ erklären (Funktionen, Kronecker-Produkt) \\ PCA: objective function hinschreiben 
-  * Classification: \\ __Bayes,__ optimal? \\ ist jeder Klassifikator, der den Bayes approximiert optimal? AV-Loss, ... +  * Classification: \\ __Bayes,__ optimal? \\ Ist jeder Klassifikator, der den Bayes approximiert optimal? AV-Loss, ... 
      
-  * __SVM__ \\objective function aufschreiben +  * __SVM__ \\ //objective function// aufschreiben 
   * __Rosenblatt's Perceptron__   * __Rosenblatt's Perceptron__
-  * __HMM__\\Ausgabewahrscheinlichkeiten \\ Forward-Algorithmus (Bildchen war ihm zu wenig; Formel mit 'rausziehen') \\ Komplexitaet+  * __HMM__\\ Ausgabewahrscheinlichkeiten \\ Forward-Algorithmus (Bildchen war ihm zu wenig; Formel mit 'rausziehen') \\ Komplexität
   * __Deleted Interpolation__   * __Deleted Interpolation__
  
  
-==== xx.yy: Me1 & Me2 ====+==== Me1 & Me2 ====
  
   * Big Picture   * Big Picture