Du befindest dich hier: FSI Informatik » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » Pattern Recognition, Pattern Analysis (Übersicht)
Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen der Seite angezeigt.
Beide Seiten, vorherige ÜberarbeitungVorherige ÜberarbeitungNächste Überarbeitung | Vorherige Überarbeitung | ||
pruefungen:hauptstudium:ls5:pr_paokt2009_2 [11.10.2009 12:09] – 131.188.30.167 | pruefungen:hauptstudium:ls5:pr_paokt2009_2 [24.10.2009 15:39] (aktuell) – 95.89.104.127 | ||
---|---|---|---|
Zeile 1: | Zeile 1: | ||
- | to be done. | + | ==== Pattern Recognition, |
+ | **Prüfer: | ||
+ | |||
+ | * Note: 1.0 | ||
+ | * Ich war extrem nervös | ||
+ | * Beide Prüfer haben sich sehr bemüht eine lockere Prüfungsathmosphäre herzustellen und haben mit gezielten Nachfragen geholfen. | ||
+ | * War sehr überrascht über die Note. Denke ausschlaggebend war mit, dass ich in ME2 wußte, wie man PCA/Kernel PCA herleitet bzw. ich ihm bei der letzten Frage eventuell die Folgefrage (hätte ich eine normale PCA) hingeschrieben schon vorweg genommen habe. | ||
+ | * Insgesamt war mein Eindruck, das Prof. Angelopoulou sich gerne an der " | ||
+ | * Daher glaube ich das es generell vor allem in ME2 nicht schlecht ist, immer nebenbei zu erzählen, was man tun will und warum. Wenn man es dann nicht ganz richtig hinschreibt ist das nicht so schlimm. Das habe ich gemacht (eher aus Nervosität als aus Berechnung) und das hat glaube ich auch zur Note beigetragen, | ||
+ | * Kann gut sein, dass ich eine Fragen in ME2 vergessen habe; wie gesagt, ich habe viel vor mich hin erzählt und es kam bestimmt die eine oder andere Zwischenfrage, | ||
+ | * Viel Erfolg an alle ME1 und ME2 Kandidaten! :) | ||
+ | |||
+ | === Teil 1: Prof. Angelopoulou fragt, Prof. Hornegger ist Beisitzer === | ||
+ | |||
+ | * Pattern Recognition " | ||
+ | * Preprocessing: | ||
+ | * Erzählen sie was zu Thresholding; | ||
+ | * Erläutern sie eine Methode ihrer Wahl im Detail \\ -> Schnittpunkt von 2 Normalverteilung. Erklärt, wie man den Threshold findet, wenn man Erwartungswert und Varianz hat, aber nicht vorgemacht ("Das ergibt eine quadratische Gleichung, die ich jetz bestimmt nicht richtig lösen kann" | ||
+ | * Wir haben 2 verschiedene Methoden zur Feature Extraction besprochen. Welche sind diese \\ -> | ||
+ | * Welche heuristischen Methoden haben wir beschrieben \\ -> zum Beispiel Fourier, Wavelet, | ||
+ | * Unterbricht mich: Walsh-Transformation \\ -> Habe gesagt, dass ich die rekursive Formel nicht kann. War ihr glaube ich egal, die kann sich wohl keiner merken. Erklärt, dass es sich um Approximationen von sin und cos (mit steigender Frequenz) durch Treppenfunktionen handelt. \\ Hintergrundidee: | ||
+ | * Was können sie zu Feature Selection sagen \\ -> Warum überhaupt? Weil man tausende von Features extrahieren kann und man vermeiden will, untereinander korrelierte oder " | ||
+ | * Bayes-Klassifikator \\ -> hingeschrieben | ||
+ | * Wie schreiben sie p(y|x) aus \\ -> Faktorisierung hingeschrieben | ||
+ | |||
+ | === Teil 2: " | ||
+ | |||
+ | * Sie haben jetzt die A-Posteriori-Wahrscheinlichkeit hingeschrieben. Wir haben in der Vorlesung viel über Decision Boundaries gesprochen. Wie hängt das zusammen? \\ -> Logistic- Regression | ||
+ | * Malt eine SVM Decision Boundary ("der Schlauch" | ||
+ | * Ab hier bin ich mir über den genauen Verlauf nicht mehr sicher. Es kam jedenfalls eine Frage zu PCA. \\ -> Man nimmt die Eigenvektoren zu den größten Eigenvektoren und projeziert auf diese | ||
+ | * Glaube ich nicht! \\ -> Hmm? Soll ich die Zielfunktion hinschreiben? | ||
+ | * Ja, machen sie mal. \\ -> habe das hingeschrieben, | ||
+ | * Also, zuerst mal, haben Sie Zeilen- oder Spaltenvektoren? | ||
+ | * Ich gebe ihnen jetzt 50 1024x1024 Bilder. Jetzt machen sie doch mal PCA \\ -> Ich: naja da würde ich ne Kernel PCA machen, weil man dann nur eine 50x50 Matrix hat \\ -> Glaube ich nicht \\ -> Angefangen, die Herleitung hinzuschreiben, |