Du befindest dich hier: FSI Informatik » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » Pattern Recognition, Pattern Analysis
Pattern Recognition, Pattern Analysis
Prüfer: Elli Angelopoulou, Joachim Hornegger
- Note: 1.0
- Ich war extrem nervös
- Beide Prüfer haben sich sehr bemüht eine lockere Prüfungsathmosphäre herzustellen und haben mit gezielten Nachfragen geholfen.
- War sehr überrascht über die Note. Denke ausschlaggebend war mit, dass ich in ME2 wußte, wie man PCA/Kernel PCA herleitet bzw. ich ihm bei der letzten Frage eventuell die Folgefrage (hätte ich eine normale PCA) hingeschrieben schon vorweg genommen habe.
- Insgesamt war mein Eindruck, das Prof. Angelopoulou sich gerne an der „pipeline“ orientiert und wissen will, was wir in der Vorlesung gemacht haben. Dadurch fragt sie sehr viel. Prof. Hornegger dagegen will irgendwie auf Transferleistung hinaus und fragt dadurch eher wenig, dafür verlangt er aber Hintergrundwissen („Glaube ich nicht!“).
- Daher glaube ich das es generell vor allem in ME2 nicht schlecht ist, immer nebenbei zu erzählen, was man tun will und warum. Wenn man es dann nicht ganz richtig hinschreibt ist das nicht so schlimm. Das habe ich gemacht (eher aus Nervosität als aus Berechnung) und das hat glaube ich auch zur Note beigetragen, weil ich zumindest das richtige gesagt habe ;)
- Kann gut sein, dass ich eine Fragen in ME2 vergessen habe; wie gesagt, ich habe viel vor mich hin erzählt und es kam bestimmt die eine oder andere Zwischenfrage, die ich hier vergessen habe.
- Viel Erfolg an alle ME1 und ME2 Kandidaten! :)
Teil 1: Prof. Angelopoulou fragt, Prof. Hornegger ist Beisitzer
- Pattern Recognition „pipeline“:
→ A/D→Pre-Proc.→FE/FS→Class. - Preprocessing: was haben wir gemacht?
→ Aufgezählt, habe Normalization und Thresholding vergessen, war aber egal - Erzählen sie was zu Thresholding; was ist das, was macht man.
→ Prinzip erklärt, die verschiedenen Methoden erläutert; habe noch Otsu erwähnt, weil ich das im Hinterkopf hatte. „Das ist AMER Stoff“. Ok, dann eben nicht ;) - Erläutern sie eine Methode ihrer Wahl im Detail
→ Schnittpunkt von 2 Normalverteilung. Erklärt, wie man den Threshold findet, wenn man Erwartungswert und Varianz hat, aber nicht vorgemacht („Das ergibt eine quadratische Gleichung, die ich jetz bestimmt nicht richtig lösen kann“).
→ Weiter iteratives Verfahren erklärt → Threshold festlegen, ML-Schätzer von EW und VAR ausrechnen, Threshold neu festlegen usw.
Habe noch dazu gesagt, das man das z.B. x-mal machen kann (mit festem x) oder abbricht, wenn sich „nicht mehr viel verändert“ oder man Histogramm und Normalverteilung vergleicht und bei geringer Abweichung abbricht - Wir haben 2 verschiedene Methoden zur Feature Extraction besprochen. Welche sind diese
→Analytisch und Heuristich; erklärt wofür was steht - Welche heuristischen Methoden haben wir beschrieben
→ zum Beispiel Fourier, Wavelet,… - Unterbricht mich: Walsh-Transformation
→ Habe gesagt, dass ich die rekursive Formel nicht kann. War ihr glaube ich egal, die kann sich wohl keiner merken. Erklärt, dass es sich um Approximationen von sin und cos (mit steigender Frequenz) durch Treppenfunktionen handelt.
Hintergrundidee: FT ist Transformation mit sin und cos. Formeln für wal(x,2k), wal(x,2k-1) aus Niemann hingeschrieben (nicht die Rekursive!), gezeichnet.
Dann bin noch irgendwie auf die Hadamard-Matrix gekommen, ich weiß nicht mehr, ob sie explizit danach gefragt hat. Wollte dann noch wissen, wie das Kronecker-Produkt funktioniert. - Was können sie zu Feature Selection sagen
→ Warum überhaupt? Weil man tausende von Features extrahieren kann und man vermeiden will, untereinander korrelierte oder „bedeutungslose“ Features zu verwenden
→ Minimierung/Maximierung von Zielfunktionen, welche die Fehlerrate approximieren, anhand der Auswahl einer Untermenge der Features. Musste Gott sei Dank keine Zielfunktion hinschreiben!
→ Noch kurz was dazu gesagt, wie man die Features aussucht, die man dann in die Zielfunktion steckt: Greedy, Greedy on hardest pair, Branch&Bound… - Bayes-Klassifikator
→ hingeschrieben - Wie schreiben sie p(y|x) aus
→ Faktorisierung hingeschrieben (prior*likelihood/evidence)
Teil 2: "Prüfertausch"
- Sie haben jetzt die A-Posteriori-Wahrscheinlichkeit hingeschrieben. Wir haben in der Vorlesung viel über Decision Boundaries gesprochen. Wie hängt das zusammen?
→ Logistic- Regression - Malt eine SVM Decision Boundary („der Schlauch“) hin und schreibt y=mx+t für die Gerade. Wie lautet jetzt die A-Posteriori-Wahrscheinlichkeit?
→ Ich: Schwitz. y=mx+t? Schei**e….
Wir haben sonst nur Normalenform gemacht. Was wird das hier jetzt? \\Gefaselt: naja, ich würde das jetzt in die Sigmoid-Funktion einsetzen und…
Er: Wie ist denn jetzt die A-Posteriori-Wahrscheinlichkeit
Ich: Komme irgendwie aus dem Konzept…. Der exponent im exp ist ja die Decision Boundary…
Er: Schreiben sie es doch einfach hin
Ich: Will Geradengleichung in Normalenform hinschreiben, blubber vor mich hin \\Er: Ich liebe diese Frage. Ich weiss nicht, warum das Studenten so verwirrt. Sie werden sich gleich ärgern.
Ich: Erzähl weiter alles mögliche über Decision Boundary, Logit, Sigmoid…
Er: Naja was ist denn an der Decision Boundary
Ich: Arg! F(x) = 0, d.h. die Decision Boundary ist hier mx-y+t=0, habs dann noch eingesetzt.
Er: Na also! - Ab hier bin ich mir über den genauen Verlauf nicht mehr sicher. Es kam jedenfalls eine Frage zu PCA.
→ Man nimmt die Eigenvektoren zu den größten Eigenvektoren und projeziert auf diese - Glaube ich nicht!
→ Hmm? Soll ich die Zielfunktion hinschreiben? - Ja, machen sie mal.
→ habe das hingeschrieben, muss dabei unsicher gewirkt haben, habe auch Lagrange-Multiplikatoren vergessen und statt (||Q||-1) nur ||Q|| hingeschrieben - Also, zuerst mal, haben Sie Zeilen- oder Spaltenvektoren?
→ Ich: ufz! Irgendwas ist falsch…. Zeile? Spalte? Spalte! Oh nein, falsch hingeschrieben. Pulsfrequenz inzwischen bei GSM angekommen, sämtliche Radios in dem Stockwerk geben den Geist auf.
→ Er: nein, das stimmt schon so. Aber ihre Matrix wird jetzt immernoch unendlich
→ Ich -1 noch dazu geschrieben und das F für Frobenius-Norm noch ergänzt
→ Er: und jetzt?
→ Ich: Naja, Gradient usw…
→ Er: In Ordnung - Ich gebe ihnen jetzt 50 1024×1024 Bilder. Jetzt machen sie doch mal PCA
→ Ich: naja da würde ich ne Kernel PCA machen, weil man dann nur eine 50×50 Matrix hat
→ Glaube ich nicht
→ Angefangen, die Herleitung hinzuschreiben, erklärt …
→ Ok, das genügt.