Du befindest dich hier: FSI Informatik » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » Pattern Recognition, Pattern Analysis   (Übersicht)

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen der Seite angezeigt.

Link zu der Vergleichsansicht

Beide Seiten, vorherige ÜberarbeitungVorherige Überarbeitung
Nächste Überarbeitung
Vorherige Überarbeitung
pruefungen:hauptstudium:ls5:pr_paokt2009_2 [24.10.2009 15:38] 95.89.104.127pruefungen:hauptstudium:ls5:pr_paokt2009_2 [24.10.2009 15:39] (aktuell) 95.89.104.127
Zeile 20: Zeile 20:
   * Welche heuristischen Methoden haben wir beschrieben \\ -> zum Beispiel Fourier, Wavelet,...   * Welche heuristischen Methoden haben wir beschrieben \\ -> zum Beispiel Fourier, Wavelet,...
   * Unterbricht mich: Walsh-Transformation \\ -> Habe gesagt, dass ich die rekursive Formel nicht kann. War ihr glaube ich egal, die kann sich wohl keiner merken. Erklärt, dass es sich um Approximationen von sin und cos (mit steigender Frequenz) durch Treppenfunktionen handelt. \\ Hintergrundidee: FT ist Transformation mit sin und cos. Formeln für wal(x,2k), wal(x,2k-1) aus Niemann hingeschrieben (nicht die Rekursive!), gezeichnet. \\ Dann bin noch irgendwie auf die Hadamard-Matrix gekommen, ich weiß nicht mehr, ob sie explizit danach gefragt hat. Wollte dann noch wissen, wie das Kronecker-Produkt funktioniert.                              * Unterbricht mich: Walsh-Transformation \\ -> Habe gesagt, dass ich die rekursive Formel nicht kann. War ihr glaube ich egal, die kann sich wohl keiner merken. Erklärt, dass es sich um Approximationen von sin und cos (mit steigender Frequenz) durch Treppenfunktionen handelt. \\ Hintergrundidee: FT ist Transformation mit sin und cos. Formeln für wal(x,2k), wal(x,2k-1) aus Niemann hingeschrieben (nicht die Rekursive!), gezeichnet. \\ Dann bin noch irgendwie auf die Hadamard-Matrix gekommen, ich weiß nicht mehr, ob sie explizit danach gefragt hat. Wollte dann noch wissen, wie das Kronecker-Produkt funktioniert.                           
-  * Was können sie zu Feature Selection sagen \\ -> Warum überhaupt? Weil man tausende von Features extrahieren kann und man vermeiden will, untereinander korrelierte oder "bedeutungslose" Features zu verwenden \\ -> minimierung/maximierung von Zielfunktionen, welche die Fehlerrate approximieren, anhand der Auswahl einer Untermenge der Features. Musste Gott sei Dank keine Zielfunktion hinschreiben! \\ -> Noch kurz was dazu gesagt, wie man die Features aussucht, die man dann in die Zielfunktion steckt: Greedy, Greedy on hardest pair, Branch&Bound...                                                                                             +  * Was können sie zu Feature Selection sagen \\ -> Warum überhaupt? Weil man tausende von Features extrahieren kann und man vermeiden will, untereinander korrelierte oder "bedeutungslose" Features zu verwenden \\ -> Minimierung/Maximierung von Zielfunktionen, welche die Fehlerrate approximieren, anhand der Auswahl einer Untermenge der Features. Musste Gott sei Dank keine Zielfunktion hinschreiben! \\ -> Noch kurz was dazu gesagt, wie man die Features aussucht, die man dann in die Zielfunktion steckt: Greedy, Greedy on hardest pair, Branch&Bound...                                                                                             
   * Bayes-Klassifikator \\ -> hingeschrieben    * Bayes-Klassifikator \\ -> hingeschrieben 
   * Wie schreiben sie p(y|x) aus \\ -> Faktorisierung hingeschrieben   (prior*likelihood/evidence)   * Wie schreiben sie p(y|x) aus \\ -> Faktorisierung hingeschrieben   (prior*likelihood/evidence)
Zeile 27: Zeile 27:
  
   * Sie haben jetzt die A-Posteriori-Wahrscheinlichkeit hingeschrieben. Wir haben in der Vorlesung viel über Decision Boundaries gesprochen. Wie hängt das zusammen? \\ -> Logistic- Regression   * Sie haben jetzt die A-Posteriori-Wahrscheinlichkeit hingeschrieben. Wir haben in der Vorlesung viel über Decision Boundaries gesprochen. Wie hängt das zusammen? \\ -> Logistic- Regression
-  * Malt eine SVM Decision Boundary ("der Schlauch") hin und schreibt y=mx+t für die Gerade. Wie lautet jetzt die A-Posteriori-Wahrscheinlichkeit? \\ -> Ich: Schwitz. y=mx+t? Schei**e.... \\Wir haben sonst nur Normalenform gemacht. Was wird das hier jetzt? \\Gefaselt: naja, ich würde das jetzt in die Sigmoid-Funktion einsetzen und...\\ Er: Wie ist denn jetzt die A-Posteriori-Wahrscheinlichkeit\\ Ich: Komme irgendwie aus dem Konzept.... Der exponent im exp ist ja die Decision Boundary...\\ Er: Schreiben sie es doch einfach hin\\ Ich: Will Geradengleichung in Normalenform hinschreiben, blubber vor mich hin \\Er: Ich liebe diese Frage. Ich weiss nicht, warum das Studenten so verwirrt. Sie werden sich gleich ärgern. \\ Ich: Erzähl weiter alles mögliche über Decision Boundary, Logit, Sigmoid... \\ Er: Naja was ist denn an der Decision Boundary \\ Ich: Arg! F(x) = 0, d.h. die Decision Boundary ist hier mx-y+t=0, habs dann noch eingesetzt. \\ Er: Na also!+  * Malt eine SVM Decision Boundary ("der Schlauch") hin und schreibt y=mx+t für die Gerade. Wie lautet jetzt die A-Posteriori-Wahrscheinlichkeit? \\ -> Ich: Schwitz. y=mx+t? Schei**e.... \\ Wir haben sonst nur Normalenform gemacht. Was wird das hier jetzt? \\Gefaselt: naja, ich würde das jetzt in die Sigmoid-Funktion einsetzen und...\\ Er: Wie ist denn jetzt die A-Posteriori-Wahrscheinlichkeit\\ Ich: Komme irgendwie aus dem Konzept.... Der exponent im exp ist ja die Decision Boundary...\\ Er: Schreiben sie es doch einfach hin\\ Ich: Will Geradengleichung in Normalenform hinschreiben, blubber vor mich hin \\Er: Ich liebe diese Frage. Ich weiss nicht, warum das Studenten so verwirrt. Sie werden sich gleich ärgern. \\ Ich: Erzähl weiter alles mögliche über Decision Boundary, Logit, Sigmoid... \\ Er: Naja was ist denn an der Decision Boundary \\ Ich: Arg! F(x) = 0, d.h. die Decision Boundary ist hier mx-y+t=0, habs dann noch eingesetzt. \\ Er: Na also!
   * Ab hier bin ich mir über den genauen Verlauf nicht mehr sicher. Es kam jedenfalls eine Frage zu PCA. \\ -> Man nimmt die Eigenvektoren zu den größten Eigenvektoren und projeziert auf diese   * Ab hier bin ich mir über den genauen Verlauf nicht mehr sicher. Es kam jedenfalls eine Frage zu PCA. \\ -> Man nimmt die Eigenvektoren zu den größten Eigenvektoren und projeziert auf diese
   * Glaube ich nicht! \\ -> Hmm? Soll ich die Zielfunktion hinschreiben?   * Glaube ich nicht! \\ -> Hmm? Soll ich die Zielfunktion hinschreiben?