Sie befinden sich hier: Termine » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » Introduction to Pattern Recognition   (Übersicht)

Introduction to Pattern Recognition

Prüfer: Elli Angelopoulou
Beisitzer: Eva Eibenberger

Masterprüfung: 7.5 ECTS

Allgemeines

  • Vorbereitung: 2 Wochen sollte man einplanen, weil der Stoff ziemlich umfangreich ist und man auch sehr ins Detail gehen kann
  • Prüfungssprache ist Englisch: Es schadet nicht, ein paar Antworttechniken auf Englisch schonmal geübt zu haben bzw. sich beim Lernen den Stoff auf Englisch zu erklären
  • Athmosphäre während der Prüfung war gut, auch wenn ich zu anfangs extrem nervös war. Ein paar witzige Bemerkungen können die Stimmung aber beleben ^^
  • Tipp: Vielleicht mehr Zeit schinden, weil man aufgrund der Aufregung eh erstmal viel zu schnell redet, und dann dementsprechend mehr Fragen gestellt werden ;)

Themen

  • Pipeline hinzeichnen, kurz motivieren und erklären
  • A/D: Es kam keine Frage hierzu
  • Preprocessing: Normalization - Habe Size und Pose Normalization mit Momenten erklärt
  • Feature Extraction: Analytic vs Heuristic voneinander abgrenzen
    • Heuristic: Linear Predictive Coding - Motivation/Geschichte hinter LPC (Sprachsignal besteht aus Buzzer, Tube und Hissings, clickings), LPC kann Formants von Buzzer Effekten separieren. Wie wird LPC in der Praxis benutzt? Weighted sum of previous signals determines current signal, Gleichungssystem für Koeffizienten aufstellen, mit Pseudoinversen lösen
    • Analytic: LDA - Class labels vorhanden, Within vs Between Class distances → Rayleigh Quotient. Als Zusatz haben wir noch über Fisher Faces geredet
  • Feature Selection - Warum Selection? Redundante Feature wegwerfen, Most Discriminative Features finden. Aspekte: Effizienz, Computational complexity, time and Curse of Dimensionality (Intuition, Distanzen, Metriken, Sparseness)
    • Objective Function: Mutual Information bzw. KL-Divergence hergeleitet
  • Classification: Optimal Bayes Decision Rule - Hingeschrieben und erklärt, warum die optimale Decision Function die posterior probabilities bzw. nach Bayes Rule, prior und class conditional maximiert (hab dann noch Beispiele gegeben, Gaussian Densities, Non parametric Density Estimation, …)