Du befindest dich hier: FSI Informatik » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » Pattern Recognition, Pattern Analysis (Übersicht)
Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen der Seite angezeigt.
Beide Seiten, vorherige ÜberarbeitungVorherige ÜberarbeitungNächste Überarbeitung | Vorherige Überarbeitung | ||
pruefungen:hauptstudium:ls5:pr_paokt2009_2 [24.10.2009 15:36] – 95.89.104.127 | pruefungen:hauptstudium:ls5:pr_paokt2009_2 [24.10.2009 15:39] (aktuell) – 95.89.104.127 | ||
---|---|---|---|
Zeile 7: | Zeile 7: | ||
* War sehr überrascht über die Note. Denke ausschlaggebend war mit, dass ich in ME2 wußte, wie man PCA/Kernel PCA herleitet bzw. ich ihm bei der letzten Frage eventuell die Folgefrage (hätte ich eine normale PCA) hingeschrieben schon vorweg genommen habe. | * War sehr überrascht über die Note. Denke ausschlaggebend war mit, dass ich in ME2 wußte, wie man PCA/Kernel PCA herleitet bzw. ich ihm bei der letzten Frage eventuell die Folgefrage (hätte ich eine normale PCA) hingeschrieben schon vorweg genommen habe. | ||
* Insgesamt war mein Eindruck, das Prof. Angelopoulou sich gerne an der " | * Insgesamt war mein Eindruck, das Prof. Angelopoulou sich gerne an der " | ||
- | * Daher glaube ich das es generell vor allem in ME2 nicht schlecht ist, immer nebenbei zu erzählen, was man tun will und warum. Wenn man es dann nicht ganz richtig hinschreibt ist das nicht so schlimm. Das habe ich gemacht (eher aus Nervosität als aus Berechnung) | + | * Daher glaube ich das es generell vor allem in ME2 nicht schlecht ist, immer nebenbei zu erzählen, was man tun will und warum. Wenn man es dann nicht ganz richtig hinschreibt ist das nicht so schlimm. Das habe ich gemacht (eher aus Nervosität als aus Berechnung) und das hat glaube ich auch zur Note beigetragen, |
- | und das hat glaube ich auch zur Note beigetragen, | + | |
* Kann gut sein, dass ich eine Fragen in ME2 vergessen habe; wie gesagt, ich habe viel vor mich hin erzählt und es kam bestimmt die eine oder andere Zwischenfrage, | * Kann gut sein, dass ich eine Fragen in ME2 vergessen habe; wie gesagt, ich habe viel vor mich hin erzählt und es kam bestimmt die eine oder andere Zwischenfrage, | ||
* Viel Erfolg an alle ME1 und ME2 Kandidaten! :) | * Viel Erfolg an alle ME1 und ME2 Kandidaten! :) | ||
Zeile 21: | Zeile 20: | ||
* Welche heuristischen Methoden haben wir beschrieben \\ -> zum Beispiel Fourier, Wavelet,... | * Welche heuristischen Methoden haben wir beschrieben \\ -> zum Beispiel Fourier, Wavelet,... | ||
* Unterbricht mich: Walsh-Transformation \\ -> Habe gesagt, dass ich die rekursive Formel nicht kann. War ihr glaube ich egal, die kann sich wohl keiner merken. Erklärt, dass es sich um Approximationen von sin und cos (mit steigender Frequenz) durch Treppenfunktionen handelt. \\ Hintergrundidee: | * Unterbricht mich: Walsh-Transformation \\ -> Habe gesagt, dass ich die rekursive Formel nicht kann. War ihr glaube ich egal, die kann sich wohl keiner merken. Erklärt, dass es sich um Approximationen von sin und cos (mit steigender Frequenz) durch Treppenfunktionen handelt. \\ Hintergrundidee: | ||
- | * Was können sie zu Feature Selection sagen \\ -> Warum überhaupt? Weil man tausende von Features extrahieren kann und man vermeiden will, untereinander korrelierte oder " | + | * Was können sie zu Feature Selection sagen \\ -> Warum überhaupt? Weil man tausende von Features extrahieren kann und man vermeiden will, untereinander korrelierte oder " |
* Bayes-Klassifikator \\ -> hingeschrieben | * Bayes-Klassifikator \\ -> hingeschrieben | ||
* Wie schreiben sie p(y|x) aus \\ -> Faktorisierung hingeschrieben | * Wie schreiben sie p(y|x) aus \\ -> Faktorisierung hingeschrieben | ||
Zeile 28: | Zeile 27: | ||
* Sie haben jetzt die A-Posteriori-Wahrscheinlichkeit hingeschrieben. Wir haben in der Vorlesung viel über Decision Boundaries gesprochen. Wie hängt das zusammen? \\ -> Logistic- Regression | * Sie haben jetzt die A-Posteriori-Wahrscheinlichkeit hingeschrieben. Wir haben in der Vorlesung viel über Decision Boundaries gesprochen. Wie hängt das zusammen? \\ -> Logistic- Regression | ||
- | * Malt eine SVM Decision Boundary ("der Schlauch" | + | * Malt eine SVM Decision Boundary ("der Schlauch" |
* Ab hier bin ich mir über den genauen Verlauf nicht mehr sicher. Es kam jedenfalls eine Frage zu PCA. \\ -> Man nimmt die Eigenvektoren zu den größten Eigenvektoren und projeziert auf diese | * Ab hier bin ich mir über den genauen Verlauf nicht mehr sicher. Es kam jedenfalls eine Frage zu PCA. \\ -> Man nimmt die Eigenvektoren zu den größten Eigenvektoren und projeziert auf diese | ||
* Glaube ich nicht! \\ -> Hmm? Soll ich die Zielfunktion hinschreiben? | * Glaube ich nicht! \\ -> Hmm? Soll ich die Zielfunktion hinschreiben? | ||
* Ja, machen sie mal. \\ -> habe das hingeschrieben, | * Ja, machen sie mal. \\ -> habe das hingeschrieben, | ||
* Also, zuerst mal, haben Sie Zeilen- oder Spaltenvektoren? | * Also, zuerst mal, haben Sie Zeilen- oder Spaltenvektoren? | ||
- | * Ich gebe ihnen jetzt 50 1024x1024 Bilder. Jetzt machen sie doch mal PCA \\-> Ich: naja da würde ich ne Kernel PCA machen, weil man dann nur eine 50x50 Matrix hat \\ - Glaube ich nicht \\ -> Angefangen, die Herleitung hinzuschreiben, | + | * Ich gebe ihnen jetzt 50 1024x1024 Bilder. Jetzt machen sie doch mal PCA \\ -> Ich: naja da würde ich ne Kernel PCA machen, weil man dann nur eine 50x50 Matrix hat \\ -> Glaube ich nicht \\ -> Angefangen, die Herleitung hinzuschreiben, |