====== Mustererkennung 2009 ====== ==== 17. März: Me1 & Me2 ==== **Bemerkungen**\\ * Prüfer: Frau Angelopoulou, Herr Hornegger * Atmosphäre: typische Prüfungssituation - entspannte Prüfer, angespannter Prüfling :) **Fragen** \\ * Big Picture * Pre-Processing: Erklären Sie mal __Histogram Equalization__. * Feature Extraction: * Was ist __PCA__? \\ Bildchen * Was ist __LDA__? \\ Bildchen\\ auf Nachfrage: Optimierungsproblem anhand von Fisher LDA erklärt (Formeln waren ihnen wichtig!) * Pre-Processing: Welche __nicht-linearen Filter__ kennen Sie? \\ Morphologische Filter/Rank-Order Filter: Erosion und Dilation * Erklären Sie mal __Homomorphic Transformation__ \\ Bild multiplikativ mit Störsignal verrauscht ->-> Logarithmus ->-> Gauss-Filterung ->-> exp() * Erklären Sie mal __SVM__ \\ Bildchen (Schlauch) * Optimierungsfunktion hinschreiben\\ max C und wollte dann wohl noch a*c + a_0 >= C * Constraints beachten? Wie? \\ Lagrange Multiplier nach Umformung bzgl. Normierung ->-> lambda(a*c + a_0 - 1) * Was wird bei nicht trennbaren Klassen gemacht? \\ Slack-Variablen; Optimierungsfunktion erweitern * __Rosenblatt's Perceptron__ erklären * Was für andere Klassifikationsansaetze gibt es noch, bei denen eine lineare Entscheidungsfunktion 'herauskommt'? \\ Optimaler und Gauss'scher Klassifikator, Logistic Regression. * Was sind das jeweils fuer Optimierungsprobleme? \\ lineare, nicht lineare, quadratische ... * Wie würden sie diese bzgl. des Optimierungsproblems sortieren? \\ Wollte auf ... < SVM < Rosenblatt's Perceptron raus, da letzterer mit sich ändernder Menge an falsch klassifizierten Features 'zu kämpfen' hat ==== 17. März: Me1 & Me2 ==== **Bemerkungen**\\ * Prüfer: Frau Angelopoulou, Herr Hornegger **Fragen** \\ * Big Picture * Sampling: \\ __Nyquist__ Theorem erklären \\ '>' oder '>=' bzgl. wie hohe Abtastrate? * Feature Extraction: \\ __Walsh-Transformation__ erklären (Funktionen, Kronecker-Produkt) \\ PCA: objective function hinschreiben * Classification: \\ __Bayes,__ optimal? \\ Ist jeder Klassifikator, der den Bayes approximiert optimal? AV-Loss, ... * __SVM__ \\ //objective function// aufschreiben * __Rosenblatt's Perceptron__ * __HMM__\\ Ausgabewahrscheinlichkeiten \\ Forward-Algorithmus (Bildchen war ihm zu wenig; Formel mit 'rausziehen') \\ Komplexität * __Deleted Interpolation__ ==== Me1 & Me2 ==== * Big Picture * A/D-Conversion: keine Fragen zu diesem Thema * Preprocessing: "Welche Filter kennen Sie?" - Man konnte beliebige Filter aufzählen und musste diese dann erklären. * Feature Extraction: PCA, LDA * Classification: HMMs