===== Pattern Recognition / Pattern Analysis ===== ==== PR ==== * Q: Was ist meine erste Frage?\\ => A: Die Pattern-Recognition-Pipeline * Q: Dann malen Sie mal hin!\\ => hingemalt * Q: Bei Preprocessing haben wir linear-shift invariante Filter behandelt\\ => Die sind toll, weil man die als Faltung ausdruecken kann und ... * Schreiben Sie die Formel fuer Faltung hin\\ => Hingeschrieben und gesagt, dass man die, wenn man sie Fourier-transformiert als Multipliaktion darstellen kann * Q: Ein nicht-shift-invarianter Filter\\ => Der Median * Q: Wie funktioniert der? * Q: Feature Extraction\\ => Gesagt, dass es da zwei Arten von Methoden gibt und wie die sich unterscheiden * Q: Walsh-Transform\\ => habe ueber projektion auf orthonormale Basis erzaehlt und die Walsh-Funktionen hingemalt (und den Sinus dazu), die Hadamarmatrix und das Kronecker-Produkt erwaehnt. * Q: Schreiben sie das Kronecker-Produkt rekursiv hin. Ich habe geschrieben H_n = H_{n-1} ⊗ H, sie hatte aber wohl H_n = H_{N/2} ⊗ H erwartet, aber Herr Hornegger meinte, das passt schon. * Zielfunktion der PCA hinschreiben\\ => hingeschrieben und gesagt, dass das auf ein eigenvector- eigenvalue Problem mit der Covarianzmatrix rauslaeuft. ==== Hornegger übernimmt ==== * LPC hinschreiben\\ => f_n= ..., erklaert mit SVD/Pseudoinverse etc. * Was passiert nun wenn man die L_2-Norm durch L_1-Norm ersetzt? \\ => -r ≤ Fa-f ≤ r (meinte dann aber dass das eine sehr schwierige Frage war) * Kernel-PCA