Sie befinden sich hier: Termine » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » intropr-18   (Übersicht)

Prüfung: Introduction to Pattern Recognition (7.5 ECTS) Prüfer: Dr. Stefan Steidl

Allgemeines: Die Prüfung ist sicherlich anspruchsvoll, aber Dr. Steidl beschränkt sich im Großen und Ganzen auf die Hauptthemen (Sobel/Laplacian Filter, PCA, LDA, Optimal/Bayesian/Gaussian/Nearest Neighbor Classifier). Über die ein oder andere Unsauberkeit sieht er gerne hinweg und hilft auf die Sprünge, wenn man mal etwas hängt. Die Fragen orientieren sich zum Teil stark an dem Roten Faden seiner Vorlesung, also lohnt sich ein Besuch derselben durchaus.

Fragen:

  • Skizzieren und erklären Sie die Pattern Recognition Pipeline.
  • Wo in dieser Pipeline ist Edge Detection angesiedelt? Insbesondere, wieso fällt es nicht unter Feature Extraction?
  • Welche Möglichkeiten für Edge Detection kennen Sie?
  • Woher kommen die Zahlen des Sobel Operators?
  • Der Laplacian Operator ist sehr anfällig für Noise, weshalb zuerst ein Gaussian Filter angewendet wird. Diese beiden kann man zum Laplacian of a Gaussian kombinieren. Woher kommen die Zahlen?
  • Welche zwei Arten von Feature Extraction kennen Sie? Nennen Sie Beispiele.
  • Bei analytischer Feature Extraction wird eine mathematische Optimierung durchgeführt. Wie lautet diese für LDA?
  • Auf wie viele Features kann man bei LDA maximal reduzieren?
  • Ich hab Ihnen ein Bild mit zwei Klassen mitgebracht. Welchen Classifier würden Sie verwenden?
  • Wie funktioniert der Gaussian Classifier?
  • Welche Eigenschaften müssen erfüllt sein, damit der Gaussian Classifier optimal ist?
  • Wir hatten einen universellen Optimal Classifier besprochen. Leiten Sie die Risk Function her.
  • Wie lässt sich dieses Integral nun minimieren?
  • Wie funktioniert der Nearest Neighbor Classifier?
  • Ich hab Ihnen ein Bild mit zwei Klassen mitgebracht. Zeichnen Sie die Entscheidungsgrenze für den Nearest Neighbor Classifier (k=1).
  • Es gibt eine Zusammenhang zwischen Bayesian Classifier, Direct Estimation und k-Nearest Neighbor Classifier. Erklären Sie diesen.