Du befindest dich hier: FSI Informatik » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » Introduction to Pattern Recognition   (Übersicht)

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen der Seite angezeigt.

Link zu der Vergleichsansicht

Beide Seiten, vorherige ÜberarbeitungVorherige Überarbeitung
Nächste Überarbeitung
Vorherige Überarbeitung
pruefungen:hauptstudium:ls5:intropr_feb2011 [24.02.2011 13:08] F3lixpruefungen:hauptstudium:ls5:intropr_feb2011 [24.02.2011 13:15] (aktuell) F3lix
Zeile 12: Zeile 12:
 ==== Themen ==== ==== Themen ====
   * Pipeline hinzeichnen, kurz motivieren und erklären   * Pipeline hinzeichnen, kurz motivieren und erklären
 +  * A/D: Es kam keine Frage hierzu
   * Preprocessing: Normalization - Habe Size und Pose Normalization mit Momenten erklärt   * Preprocessing: Normalization - Habe Size und Pose Normalization mit Momenten erklärt
   * Feature Extraction: Analytic vs Heuristic voneinander abgrenzen   * Feature Extraction: Analytic vs Heuristic voneinander abgrenzen
     * Heuristic: Linear Predictive Coding - Motivation/Geschichte hinter LPC (Sprachsignal besteht aus Buzzer, Tube und Hissings, clickings), LPC kann Formants von Buzzer Effekten separieren. Wie wird LPC in der Praxis benutzt? Weighted sum of previous signals determines current signal, Gleichungssystem für Koeffizienten aufstellen, mit Pseudoinversen lösen     * Heuristic: Linear Predictive Coding - Motivation/Geschichte hinter LPC (Sprachsignal besteht aus Buzzer, Tube und Hissings, clickings), LPC kann Formants von Buzzer Effekten separieren. Wie wird LPC in der Praxis benutzt? Weighted sum of previous signals determines current signal, Gleichungssystem für Koeffizienten aufstellen, mit Pseudoinversen lösen
     * Analytic: LDA - Class labels vorhanden, Within vs Between Class distances -> Rayleigh Quotient. Als Zusatz haben wir noch über Fisher Faces geredet     * Analytic: LDA - Class labels vorhanden, Within vs Between Class distances -> Rayleigh Quotient. Als Zusatz haben wir noch über Fisher Faces geredet
-  * Feature Selection - Warum Selection? Effizienz, Computational complexity, time and Curse of Dimensionality (Intuition, Distanzen, Metriken, Sparseness)  +  * Feature Selection - Warum Selection? Redundante Feature wegwerfen, Most Discriminative Features finden. Aspekte: Effizienz, Computational complexity, time and Curse of Dimensionality (Intuition, Distanzen, Metriken, Sparseness)  
     * Objective Function: Mutual Information bzw. KL-Divergence hergeleitet     * Objective Function: Mutual Information bzw. KL-Divergence hergeleitet
-  * Classification: Optimal Bayes Decision Function - Hingeschrieben und erklärt, warum die optimale Decision Function die posterior probabilities bzw. nach Bayes Rule, prior und class conditional maximiert (hab dann noch Beispiele gegeben, Gaussian Densities, Non parametric Density Estimation, ...)+  * Classification: Optimal Bayes Decision Rule - Hingeschrieben und erklärt, warum die optimale Decision Function die posterior probabilities bzw. nach Bayes Rule, prior und class conditional maximiert (hab dann noch Beispiele gegeben, Gaussian Densities, Non parametric Density Estimation, ...)