Du befindest dich hier: FSI Informatik » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » Pattern Recognition, Pattern Analysis   (Übersicht)

Dies ist eine alte Version des Dokuments!


Pattern Recognition, Pattern Analysis

Prüfer: Elli Angelopoulou, Joachim Hornegger

  • Note: 1.0
  • Ich war extrem nervös
  • Beide Prüfer haben sich sehr bemüht eine lockere Prüfungsathmosphäre herzustellen und haben mit gezielten Nachfragen geholfen.

Teil 1: Prof. Angelopoulou fragt, Prof. Hornegger ist Beisitzer

  • Pattern Recognition „pipeline“:
    → A/D→Pre-Proc.→FE/FS→Class.
  • Preprocessing: was haben wir gemacht?
    → Aufgezählt, habe Normalization und Thresholding vergessen, war aber egal
  • Erzählen sie was zu Thresholding; was ist das, was macht man.
    → Prinzip erklärt, die verschiedenen Methoden erläutert; habe noch Otsu erwähnt, weil ich das im Hinterkopf hatte. „Das ist AMER Stoff“. Ok, dann eben nicht ;)
  • Erläutern sie eine Methode ihrer Wahl im Detail
    → Schnittpunkt von 2 Normalverteilung. Erklärt, wie man den Threshold findet, wenn man Erwartungswert und Varianz hat, aber nicht vorgemacht („Das ergibt eine quadratische Gleichung, die ich jetz bestimmt nicht richtig lösen kann“).
    → Weiter iteratives Verfahren erklärt → Threshold festlegen, ML-Schätzer von EW und VAR ausrechnen, Threshold neu festlegen usw.
    Habe noch dazu gesagt, das man das z.B. x-mal machen kann (mit festem x) oder abbricht, wenn sich „nicht mehr viel verändert“ oder man Histogramm und Normalverteilung vergleicht und bei geringer Abweichung abbricht
  • Wir haben 2 verschiedene Methoden zur Feature Extraction besprochen. Welche sind diese
    →Analytisch und Heuristich; erkl�rt wof�r was steht
  • Welche heuristischen Methoden haben wir beschrieben
    → zum Bespiel Fourier, Wavelet,…
  • Unterbricht mich: Walsh-Transformation
    → Habe gesagt, dass ich die rekursive Formel nicht kann. War ihr glaube ich egal, die kann sich wohl keiner merken. Erklärt, dass es sich um Approximationen von sin und cos (mit steigender Frequenz) durch Treppenfunktionen handelt.
    Hintergrundidee: FT ist Transformation mit sin und cos. Formeln für wal(x,2k), wal(x,2k-1) aus Niemann hingeschrieben (nicht die Rekursive!), gezeichnet.
    Dann bin noch irgendwie auf die Hadamard-Matrix gekommen, ich weiß nicht mehr, ob sie explizit danach gefragt hat. Wollte dann noch wissen, wie das Kronecker-Produkt funktioniert.
  • Was können sie zu Feature Selection sagen
    → Warum überhaupt? Weil man tausende von Features extrahieren kann und man vermeiden will, untereinander korrelierte oder „bedeutungslose“ Features zu verwenden
    → minimierung/maximierung von Zielfunktionen, welche die Fehlerrate approximieren, anhand der Auswahl einer Untermenge der Features. Musste Gott sei Dank keine Zielfunktion hinschreiben!
    → Noch kurz was dazu gesagt, wie man die Features aussucht, die man dann in die Zielfunktion steckt: Greedy, Greedy on hardest pair, Branch&Bound…
  • Bayes-Klassifikator
    → hingeschrieben
  • Wie schreiben sie p(y|x) aus
    → Faktorisierung hingeschrieben (prior*likelihood/evidence)