Du befindest dich hier: FSI Informatik » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » Pattern Recognition, Pattern Analysis   (Übersicht)

Dies ist eine alte Version des Dokuments!


Note: 1.0

Ich war extrem nerv�s beide Pr�fer haben sich sehr bem�ht eine lockere Pr�fungsathmosph�re herzustellen und haben mit gezielten Nachfragen geholfen.

Teil 1: Prof. Angelopoulou fragt, Prof. Hornegger ist Beisitzer

- Pattern Recognition „pipeline“:

  1. > A/D→Pre-Proc.→FE/FS→Class.

- Preprocessing: was haben wir gemacht?

  1. > Aufgez�hlt, habe Normalization und Thresholding vergessen, war aber egal

- Erz�hlen sie was zu Thresholding; was ist das, was macht man.

  1. > Prinzip erkl�rt, die verschiedenen Methoden erl�utert; habe noch Otsu erw�hnt, weil ich

das im Hinterkopf hatte. „Das ist AMER Stoff“. Ok, dann eben nicht ;) - Erl�utern sie eine Methode ihrer Wahl im Detail

  1. > Schnittpunkt von 2 Normalverteilung. Erkl�rt, wie man den Threshold findet, wenn man Erwartungswert und Varianz

hat, aber nicht vorgemacht („Das ergibt eine quadratische Gleichung, die ich jetz bestimmt nicht richtig

       l�sen kann").                                                                                                                                        
       Weiter iteratives Verfahren erkl�rt -> Threshold festlegen, ML-Sch�tzer von EW und VAR ausrechnen, Threshold neu festlegen usw.                      
       Habe noch dazu gesagt, das man das z.B. x-mal machen kann (mit festem x) oder abbricht, wenn sich "nicht mehr viel ver�ndert"                        
   oder man Histogramm und Normalverteilung vergleicht und bei geringer Abweichung abbricht                                                                 

- Wir haben 2 verschiedene Methoden zur Feature Extraction besprochen. Welche sind diese

  1. Analytisch und Heuristich; erkl�rt wof�r was steht

- Welche heuristischen Methoden haben wir beschrieben

  1. > zum Bespiel Fourier, Wavelet,…

- Unterbricht mich: Walsh-Transformation

  1. > Habe gesagt, dass ich die rekursive Formel nicht kann. War ihr glaube ich egal, die kann sich wohl

keiner merken. Erkl�rt, dass es sich um Approximationen von sin und cos (mit steigender Frequenz)

       durch Treppenfunktionen handelt. Hintergrundidee: FT ist Transformation mit sin und cos.                                                             
       Formeln f�r wal(x,2k), wal(x,2k-1) aus Niemann hingeschrieben (nicht die Rekursive!), gezeichnet.                                                    
       Dann bin noch irgendwie auf die Hadamard-Matrix gekommen, ich wei� nicht mehr, ob sie explizit danach                                                
       gefragt hat. Wollte dann noch wissen, wie das Kronecker-Produkt funktioniert.                                                                        

- Was k�nnen sie zu Feature Selection sagen

  1. > Warum �berhaupt? Weil man tausende von Features extrahieren kann und man vermeiden will,

untereinander korrelierte oder „bedeutungslose“ Features zu verwenden

  1. > minimierung/maximierung von Zielfunktionen, welche die Fehlerrate approximieren, anhand der Auswahl

einer Untermenge der Features. Musste Gott sei Dank keine Zielfunktion hinschreiben!