Sie befinden sich hier: Termine » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » Prüfung IntroPR, Februar 2011   (Übersicht)

Prüfung IntroPR, Februar 2011

Allgemeines

Prüferin: Elli Angelopoulou

Die Prüferin und der Beisitzer bauten schnell eine angenehme Atmosphäre auf. Mein Tipp: Selber viel reden und wenn möglich auch sämtliches mit Skizzen zeigen. Das nimmt Zeit und bringt gleichzeitig auch rüber das man den Stoff gut verstanden hat.

IntroPR

  • Pipeline hinmalen (Am besten auch gleich ein paar Worte dazu sagen)
  • Kapitel A/D: Nyquist Sampling-Theorem → Hinschreiben und kurz erklären das wenn es eingehalten wird keine Information verloren geht
  • 3 verschiedene Pre-Processing Methoden: Hystogram Equalisation, Thresholding, Filtering…
  • Hystogram Equalisation erklärt: Signal→PDF(Histogram)→CDF→Mapping (Tipp: Wenn man mit Hystogram Equalisation fit ist dann auf jeden Fall bei Pre-Processing Methoden erwähnen)
  • Feature Extraction (analytic und heuristic erklären)
  • Walsh-Hadamard-Transform erklären (Zunächst hinzeichnen und erklären das die Walsh Functions approximationen von Sinus und Cosinus sind und deshalb die Trafo die Fouriertranformation nachbildet, aber wesentlich schneller zu berechnen ist → Dann Hadamard Matrix und Kronecker Produkt erklären und Formel c=\Phi*f hinschreiben)
  • PCA: Will den Spread aller Features maximieren! Formel hinschreiben und erklären (Constraint mit Frobenius Norm nicht vergessen!)
  • Feature Selection: Warum Selection? (Redundanz des feature Vektors beseitigen; Dimension verkleinern; Informationsgehalt beibehalten)
  • Feature Selection: Mutual Information Objective Function hinschreiben und sagen das, dass auch die KL-Divergence darstellt
  • Bayes Decision Rule: \lamba = argmax{\kappa} p(\Omega_{\kappa} | c)
  • Wie kommt man auf die posterior probability? → Gaussian distribution annehmen → Decision Rule auf Gaussian umgeformt und auch Gauss-Formel für die class conditional eingesetzt.
  • Was machen wenn keine Normalverteilung: K-NN oder Parzen-Windows (keine Formeln)
  • wann ist Bayes optimal? (0,1)-cost function und noch erklären was das bedeutet (Die richtige Klasse bekommt Kosten 0 und alle falsche Entscheidungen bekommen Kosten 1)