Du befindest dich hier: FSI Informatik » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » Pattern Recognition, Pattern Analysis (Übersicht)
Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen der Seite angezeigt.
Beide Seiten, vorherige ÜberarbeitungVorherige ÜberarbeitungNächste Überarbeitung | Vorherige Überarbeitung | ||
pruefungen:hauptstudium:ls5:pr_paokt2009_2 [24.10.2009 15:38] – 95.89.104.127 | pruefungen:hauptstudium:ls5:pr_paokt2009_2 [24.10.2009 15:39] (aktuell) – 95.89.104.127 | ||
---|---|---|---|
Zeile 20: | Zeile 20: | ||
* Welche heuristischen Methoden haben wir beschrieben \\ -> zum Beispiel Fourier, Wavelet,... | * Welche heuristischen Methoden haben wir beschrieben \\ -> zum Beispiel Fourier, Wavelet,... | ||
* Unterbricht mich: Walsh-Transformation \\ -> Habe gesagt, dass ich die rekursive Formel nicht kann. War ihr glaube ich egal, die kann sich wohl keiner merken. Erklärt, dass es sich um Approximationen von sin und cos (mit steigender Frequenz) durch Treppenfunktionen handelt. \\ Hintergrundidee: | * Unterbricht mich: Walsh-Transformation \\ -> Habe gesagt, dass ich die rekursive Formel nicht kann. War ihr glaube ich egal, die kann sich wohl keiner merken. Erklärt, dass es sich um Approximationen von sin und cos (mit steigender Frequenz) durch Treppenfunktionen handelt. \\ Hintergrundidee: | ||
- | * Was können sie zu Feature Selection sagen \\ -> Warum überhaupt? Weil man tausende von Features extrahieren kann und man vermeiden will, untereinander korrelierte oder " | + | * Was können sie zu Feature Selection sagen \\ -> Warum überhaupt? Weil man tausende von Features extrahieren kann und man vermeiden will, untereinander korrelierte oder " |
* Bayes-Klassifikator \\ -> hingeschrieben | * Bayes-Klassifikator \\ -> hingeschrieben | ||
* Wie schreiben sie p(y|x) aus \\ -> Faktorisierung hingeschrieben | * Wie schreiben sie p(y|x) aus \\ -> Faktorisierung hingeschrieben | ||
Zeile 27: | Zeile 27: | ||
* Sie haben jetzt die A-Posteriori-Wahrscheinlichkeit hingeschrieben. Wir haben in der Vorlesung viel über Decision Boundaries gesprochen. Wie hängt das zusammen? \\ -> Logistic- Regression | * Sie haben jetzt die A-Posteriori-Wahrscheinlichkeit hingeschrieben. Wir haben in der Vorlesung viel über Decision Boundaries gesprochen. Wie hängt das zusammen? \\ -> Logistic- Regression | ||
- | * Malt eine SVM Decision Boundary ("der Schlauch" | + | * Malt eine SVM Decision Boundary ("der Schlauch" |
* Ab hier bin ich mir über den genauen Verlauf nicht mehr sicher. Es kam jedenfalls eine Frage zu PCA. \\ -> Man nimmt die Eigenvektoren zu den größten Eigenvektoren und projeziert auf diese | * Ab hier bin ich mir über den genauen Verlauf nicht mehr sicher. Es kam jedenfalls eine Frage zu PCA. \\ -> Man nimmt die Eigenvektoren zu den größten Eigenvektoren und projeziert auf diese | ||
* Glaube ich nicht! \\ -> Hmm? Soll ich die Zielfunktion hinschreiben? | * Glaube ich nicht! \\ -> Hmm? Soll ich die Zielfunktion hinschreiben? |