Du befindest dich hier: FSI Informatik » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » Pattern Recognition, Pattern Analysis   (Übersicht)

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen der Seite angezeigt.

Link zu der Vergleichsansicht

Nächste Überarbeitung
Vorherige Überarbeitung
pruefungen:hauptstudium:ls5:pr_paokt2009_2 [11.10.2009 12:09] – angelegt 131.188.30.167pruefungen:hauptstudium:ls5:pr_paokt2009_2 [24.10.2009 15:39] (aktuell) 95.89.104.127
Zeile 1: Zeile 1:
-Note: 1.0                                                                                                                                                      +==== Pattern Recognition, Pattern Analysis ==== 
-                                                                                                                                                               +**Prüfer:** Elli Angelopoulou, Joachim Hornegger 
-Ich war extrem nerv�s beide Pr�fer haben sich sehr bem�ht eine lockere Pr�fungsathmosph�re herzustellen und                                                    + 
-haben mit gezielten Nachfragen geholfen.                                                                                                                       +  * Note: 1.0 
-                                                                                                                                                               +  Ich war extrem nervös  
-Teil 1: Prof. Angelopoulou fragt, Prof. Hornegger ist Beisitzer                                                                                                +  * Beide Prüfer haben sich sehr bemüht eine lockere Prüfungsathmosphäre herzustellen und haben mit gezielten Nachfragen geholfen.  
-                                                                                                                                                               +  * War sehr überrascht über die Note. Denke ausschlaggebend war mit, dass ich in ME2 wußte, wie man PCA/Kernel PCA herleitet bzw. ich ihm bei der letzten Frage eventuell die Folgefrage (hätte ich eine normale PCA) hingeschrieben schon vorweg genommen habe. 
-Pattern Recognition "pipeline":                                                                                                                              +  * Insgesamt war mein Eindruck, das Prof. Angelopoulou sich gerne an der "pipeline" orientiert  und wissen will, was wir in der Vorlesung gemacht haben. Dadurch fragt sie sehr viel. Prof.  Hornegger dagegen will irgendwie auf Transferleistung hinaus und fragt dadurch eher wenig, dafür verlangt er aber Hintergrundwissen ("Glaube ich nicht!"). 
-  -> A/D->Pre-Proc.->FE/FS->Class.                                                                                                                             +  * Daher glaube ich das es generell vor allem in ME2 nicht schlecht ist, immer nebenbei zu erzählen, was man tun will und warum. Wenn man es dann nicht ganz richtig hinschreibt ist das nicht so schlimm. Das habe ich gemacht (eher aus Nervosität als aus Berechnung) und das hat glaube ich auch zur Note beigetragen, weil ich zumindest das richtige gesagt habe ;) 
-Preprocessing: was haben wir gemacht?                                                                                                                        +  * Kann gut sein, dass ich eine Fragen in ME2 vergessen habe; wie gesagt, ich habe viel vor mich hin erzählt und es kam bestimmt die eine oder andere Zwischenfrage, die ich hier vergessen habe. 
-  -> Aufgez�hlt, habe Normalization und Thresholding vergessen, war aber egal                                                                                  +  * Viel Erfolg an alle ME1 und ME2 Kandidaten! :) 
-- Erz�hlen sie was zu Thresholding; was ist das, was macht man.                                                                                                + 
-  -> Prinzip erkl�rt, die verschiedenen Methoden erl�utert; habe noch Otsu erw�hnt, weil ich                                                                   +=== Teil 1: Prof. Angelopoulou fragt, Prof. Hornegger ist Beisitzer === 
-     das im Hinterkopf hatte. "Das ist AMER Stoff". Ok, dann eben nicht ;)                                                                                     + 
-- Erl�utern sie eine Methode ihrer Wahl im Detail                                                                                                              +  Pattern Recognition "pipeline":\\ -> A/D->Pre-Proc.->FE/FS->Class.  
-  -> Schnittpunkt von 2 Normalverteilung. Erkl�rt, wie man den Threshold findet, wenn man Erwartungswert und Varianz                                           +  Preprocessing: was haben wir gemacht? \\ -> Aufgezählt, habe Normalization und Thresholding vergessen, war aber egal 
-     hat, aber nicht vorgemacht ("Das ergibt eine quadratische Gleichung, die ich jetz bestimmt nicht richtig                                                  +  * Erzählen sie was zu Thresholding; was ist das, was macht man. \\ -> Prinzip erklärt, die verschiedenen Methoden erläutert; habe noch Otsu erwähnt, weil ich das im Hinterkopf hatte. "Das ist AMER Stoff". Ok, dann eben nicht ;)                                    
-         l�sen kann").                                                                                                                                         +  * Erläutern sie eine Methode ihrer Wahl im Detail \\ -> Schnittpunkt von 2 Normalverteilung. Erklärt, wie man den Threshold findet, wenn man Erwartungswert und Varianz hat, aber nicht vorgemacht ("Das ergibt eine quadratische Gleichung, die ich jetz bestimmt nicht richtig lösen kann"). \\ -> Weiter iteratives Verfahren erklärt -> Threshold festlegen, ML-Schätzer von EW und VAR ausrechnen, Threshold neu festlegen usw. \\ Habe noch dazu gesagt, das man das z.B. x-mal machen kann (mit festem x) oder abbricht, wenn sich "nicht mehr viel verändert" oder man Histogramm und Normalverteilung vergleicht und bei geringer Abweichung abbricht 
-         Weiter iteratives Verfahren erkl�rt -> Threshold festlegen, ML-Sch�tzer von EW und VAR ausrechnen, Threshold neu festlegen usw.                       +  Wir haben 2 verschiedene Methoden zur Feature Extraction besprochen. Welche sind diese \\ ->Analytisch und Heuristich; erklärt wofür was steht  
-         Habe noch dazu gesagt, das man das z.B. x-mal machen kann (mit festem x) oder abbricht, wenn sich "nicht mehr viel ver�ndert                        +  Welche heuristischen Methoden haben wir beschrieben \\ -> zum Beispiel Fourier, Wavelet,... 
-     oder man Histogramm und Normalverteilung vergleicht und bei geringer Abweichung abbricht                                                                  +  Unterbricht mich: Walsh-Transformation \\ -> Habe gesagt, dass ich die rekursive Formel nicht kann. War ihr glaube ich egal, die kann sich wohl keiner merken. Erklärt, dass es sich um Approximationen von sin und cos (mit steigender Frequenz) durch Treppenfunktionen handelt. \\ Hintergrundidee: FT ist Transformation mit sin und cos. Formeln für wal(x,2k), wal(x,2k-1) aus Niemann hingeschrieben (nicht die Rekursive!), gezeichnet. \\ Dann bin noch irgendwie auf die Hadamard-Matrix gekommen, ich weiß nicht mehr, ob sie explizit danach gefragt hat. Wollte dann noch wissen, wie das Kronecker-Produkt funktioniert.                            
-Wir haben 2 verschiedene Methoden zur Feature Extraction besprochen. Welche sind diese                                                                       +  Was können sie zu Feature Selection sagen \\ -> Warum überhaupt? Weil man tausende von Features extrahieren kann und man vermeiden will, untereinander korrelierte oder "bedeutungslose" Features zu verwenden \\ -> Minimierung/Maximierung von Zielfunktionen, welche die Fehlerrate approximieren, anhand der Auswahl einer Untermenge der Features. Musste Gott sei Dank keine Zielfunktion hinschreiben! \\ -> Noch kurz was dazu gesagt, wie man die Features aussucht, die man dann in die Zielfunktion steckt: Greedy, Greedy on hardest pair, Branch&Bound...                                                                                              
-  - Analytisch und Heuristich; erkl�rt wof�r was steht                                                                                                         +  * Bayes-Klassifikator \\ -> hingeschrieben  
-Welche heuristischen Methoden haben wir beschrieben                                                                                                          +  * Wie schreiben sie p(y|x) aus \\ -> Faktorisierung hingeschrieben   (prior*likelihood/evidence) 
-  -> zum Bespiel Fourier, Wavelet,...                                                                                                                          +     
-Unterbricht mich: Walsh-Transformation                                                                                                                       +=== Teil 2: "Prüfertausch" === 
-  -> Habe gesagt, dass ich die rekursive Formel nicht kann. War ihr glaube ich egal, die kann sich wohl                                                        + 
-     keiner merken. Erkl�rt, dass es sich um Approximationen von sin und cos (mit steigender Frequenz)                                                         +  * Sie haben jetzt die A-Posteriori-Wahrscheinlichkeit hingeschrieben. Wir haben in der Vorlesung viel über Decision Boundaries gesprochen. Wie hängt das zusammen? \\ -> Logistic- Regression 
-         durch Treppenfunktionen handelt. Hintergrundidee: FT ist Transformation mit sin und cos.                                                              +  * Malt eine SVM Decision Boundary ("der Schlauch") hin und schreibt y=mx+t für die Gerade. Wie lautet jetzt die A-Posteriori-Wahrscheinlichkeit? \\ -> Ich: Schwitz. y=mx+t? Schei**e.... \\ Wir haben sonst nur Normalenform gemacht. Was wird das hier jetzt? \\Gefaselt: naja, ich würde das jetzt in die Sigmoid-Funktion einsetzen und...\\ Er: Wie ist denn jetzt die A-Posteriori-Wahrscheinlichkeit\\ Ich: Komme irgendwie aus dem Konzept.... Der exponent im exp ist ja die Decision Boundary...\\ Er: Schreiben sie es doch einfach hin\\ Ich: Will Geradengleichung in Normalenform hinschreiben, blubber vor mich hin \\Er: Ich liebe diese Frage. Ich weiss nicht, warum das Studenten so verwirrt. Sie werden sich gleich ärgern. \\ Ich: Erzähl weiter alles mögliche über Decision Boundary, Logit, Sigmoid... \\ Er: Naja was ist denn an der Decision Boundary \\ Ich: Arg! F(x) = 0, d.h. die Decision Boundary ist hier mx-y+t=0, habs dann noch eingesetzt. \\ Er: Na also! 
-         Formeln f�r wal(x,2k), wal(x,2k-1) aus Niemann hingeschrieben (nicht die Rekursive!), gezeichnet.                                                     +  * Ab hier bin ich mir über den genauen Verlauf nicht mehr sicher. Es kam jedenfalls eine Frage zu PCA. \\ -> Man nimmt die Eigenvektoren zu den größten Eigenvektoren und projeziert auf diese 
-         Dann bin noch irgendwie auf die Hadamard-Matrix gekommen, ich wei� nicht mehr, ob sie explizit danach                                                 +  * Glaube ich nicht! \\ -> Hmm? Soll ich die Zielfunktion hinschreiben? 
-         gefragt hat. Wollte dann noch wissen, wie das Kronecker-Produkt funktioniert.                                                                         +  * Ja, machen sie mal. \\ -> habe das hingeschrieben, muss dabei unsicher gewirkt haben, habe auch Lagrange-Multiplikatoren vergessen und statt (||Q||-1) nur ||Q|| hingeschrieben 
-Was k�nnen sie zu Feature Selection sagen                                                                                                                    +  * Also, zuerst mal, haben Sie Zeilen- oder Spaltenvektoren? \\ -> Ich: ufz! Irgendwas ist falsch.... Zeile? Spalte? Spalte! Oh nein, falsch hingeschrieben. Pulsfrequenz inzwischen bei GSM angekommen, sämtliche Radios in dem Stockwerk geben den Geist auf. \\ -> Er: nein, das stimmt schon so. Aber ihre Matrix wird jetzt immernoch unendlich \\ -> Ich -1 noch dazu geschrieben und das F für Frobenius-Norm noch ergänzt \\ -> Er: und jetzt? \\ -> Ich: Naja, Gradient usw... \\ -> Er: In Ordnung 
-  -> Warum �berhaupt? Weil man tausende von Features extrahieren kann und man vermeiden will,                                                                  +  * Ich gebe ihnen jetzt 50 1024x1024 Bilder. Jetzt machen sie doch mal PCA \\ -> Ich: naja da würde ich ne Kernel PCA machen, weil man dann nur eine 50x50 Matrix hat \\ -> Glaube ich nicht \\ -> Angefangen, die Herleitung hinzuschreiben, erklärt ... \\ -> Ok, das genügt.
-     untereinander korrelierte oder "bedeutungslose" Features zu verwenden                                                                                     +
-  -> minimierung/maximierung von Zielfunktionen, welche die Fehlerrate approximieren, anhand der Auswahl                                                       +
-     einer Untermenge der Features. Musste Gott sei Dank keine Zielfunktion hinschreiben! +