Du befindest dich hier: FSI Informatik » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » Prüfung IntroPR, Februar 2011   (Übersicht)

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen der Seite angezeigt.

Link zu der Vergleichsansicht

Nächste Überarbeitung
Vorherige Überarbeitung
pruefungen:hauptstudium:ls5:introduction_to_pattern_recognition_februar2011 [22.02.2011 15:32] – angelegt Bergeronepruefungen:hauptstudium:ls5:introduction_to_pattern_recognition_februar2011 [22.02.2011 15:36] (aktuell) Bergerone
Zeile 3: Zeile 3:
 Prüferin: Elli Angelopoulou Prüferin: Elli Angelopoulou
  
-Die Prüferin und der Beisitzer bauten schnell eine angenehme Atmosphäre auf. Mein Tipp: Selber viel reden und wenn möglich auch sämtliches mit Skizzen zu zeigen. Das nimmt Zeit und bringt gleichzeitig auch rüber das man den Stoff gut verstanden hat.  +Die Prüferin und der Beisitzer bauten schnell eine angenehme Atmosphäre auf. Mein Tipp: Selber viel reden und wenn möglich auch sämtliches mit Skizzen zeigen. Das nimmt Zeit und bringt gleichzeitig auch rüber das man den Stoff gut verstanden hat.  
  
 =====  IntroPR ===== =====  IntroPR =====
Zeile 12: Zeile 12:
   * Feature Extraction (analytic und heuristic erklären)   * Feature Extraction (analytic und heuristic erklären)
   * Walsh-Hadamard-Transform erklären (Zunächst hinzeichnen und erklären das die Walsh Functions approximationen von Sinus und Cosinus sind und deshalb die Trafo die Fouriertranformation nachbildet, aber wesentlich schneller zu berechnen ist -> Dann Hadamard Matrix und Kronecker Produkt erklären und Formel c=\Phi*f hinschreiben)   * Walsh-Hadamard-Transform erklären (Zunächst hinzeichnen und erklären das die Walsh Functions approximationen von Sinus und Cosinus sind und deshalb die Trafo die Fouriertranformation nachbildet, aber wesentlich schneller zu berechnen ist -> Dann Hadamard Matrix und Kronecker Produkt erklären und Formel c=\Phi*f hinschreiben)
-  * Feature Selection: Warum Selection? (Redundanz des feature Vektors beseitigen; Dimension verkleinener; Informationsgehalt beibehalten)+  * PCA: Will den Spread aller Features maximieren! Formel hinschreiben und erklären (Constraint mit Frobenius Norm nicht vergessen!) 
 +  * Feature Selection: Warum Selection? (Redundanz des feature Vektors beseitigen; Dimension verkleinern; Informationsgehalt beibehalten)
   * Feature Selection: Mutual Information Objective Function hinschreiben und sagen das, dass auch die KL-Divergence darstellt   * Feature Selection: Mutual Information Objective Function hinschreiben und sagen das, dass auch die KL-Divergence darstellt
   * Bayes Decision Rule: \lamba = argmax{\kappa} p(\Omega_{\kappa} | c)   * Bayes Decision Rule: \lamba = argmax{\kappa} p(\Omega_{\kappa} | c)