Du befindest dich hier: FSI Informatik » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » Prüfung IntroPR, Februar 2011   (Übersicht)

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen der Seite angezeigt.

Link zu der Vergleichsansicht

Beide Seiten, vorherige ÜberarbeitungVorherige Überarbeitung
Nächste Überarbeitung
Vorherige Überarbeitung
pruefungen:hauptstudium:ls5:introduction_to_pattern_recognition_februar2011 [22.02.2011 15:32] Bergeronepruefungen:hauptstudium:ls5:introduction_to_pattern_recognition_februar2011 [22.02.2011 15:36] (aktuell) Bergerone
Zeile 12: Zeile 12:
   * Feature Extraction (analytic und heuristic erklären)   * Feature Extraction (analytic und heuristic erklären)
   * Walsh-Hadamard-Transform erklären (Zunächst hinzeichnen und erklären das die Walsh Functions approximationen von Sinus und Cosinus sind und deshalb die Trafo die Fouriertranformation nachbildet, aber wesentlich schneller zu berechnen ist -> Dann Hadamard Matrix und Kronecker Produkt erklären und Formel c=\Phi*f hinschreiben)   * Walsh-Hadamard-Transform erklären (Zunächst hinzeichnen und erklären das die Walsh Functions approximationen von Sinus und Cosinus sind und deshalb die Trafo die Fouriertranformation nachbildet, aber wesentlich schneller zu berechnen ist -> Dann Hadamard Matrix und Kronecker Produkt erklären und Formel c=\Phi*f hinschreiben)
-  * Feature Selection: Warum Selection? (Redundanz des feature Vektors beseitigen; Dimension verkleinener; Informationsgehalt beibehalten)+  * PCA: Will den Spread aller Features maximieren! Formel hinschreiben und erklären (Constraint mit Frobenius Norm nicht vergessen!) 
 +  * Feature Selection: Warum Selection? (Redundanz des feature Vektors beseitigen; Dimension verkleinern; Informationsgehalt beibehalten)
   * Feature Selection: Mutual Information Objective Function hinschreiben und sagen das, dass auch die KL-Divergence darstellt   * Feature Selection: Mutual Information Objective Function hinschreiben und sagen das, dass auch die KL-Divergence darstellt
   * Bayes Decision Rule: \lamba = argmax{\kappa} p(\Omega_{\kappa} | c)   * Bayes Decision Rule: \lamba = argmax{\kappa} p(\Omega_{\kappa} | c)