Pattern Recognition „pipeline“:
→ A/D→Pre-Proc.→FE/FS→Class.
Preprocessing: was haben wir gemacht?
→ Aufgezählt, habe Normalization und Thresholding vergessen, war aber egal
Erzählen sie was zu Thresholding; was ist das, was macht man.
→ Prinzip erklärt, die verschiedenen Methoden erläutert; habe noch Otsu erwähnt, weil ich das im Hinterkopf hatte. „Das ist AMER Stoff“. Ok, dann eben nicht ;)
Erläutern sie eine Methode ihrer Wahl im Detail
→ Schnittpunkt von 2 Normalverteilung. Erklärt, wie man den Threshold findet, wenn man Erwartungswert und Varianz hat, aber nicht vorgemacht („Das ergibt eine quadratische Gleichung, die ich jetz bestimmt nicht richtig lösen kann“).
→ Weiter iteratives Verfahren erklärt → Threshold festlegen, ML-Schätzer von EW und VAR ausrechnen, Threshold neu festlegen usw.
Habe noch dazu gesagt, das man das z.B. x-mal machen kann (mit festem x) oder abbricht, wenn sich „nicht mehr viel verändert“ oder man Histogramm und Normalverteilung vergleicht und bei geringer Abweichung abbricht
Wir haben 2 verschiedene Methoden zur Feature Extraction besprochen. Welche sind diese
→Analytisch und Heuristich; erklärt wofür was steht
Welche heuristischen Methoden haben wir beschrieben
→ zum Beispiel Fourier, Wavelet,…
Unterbricht mich: Walsh-Transformation
→ Habe gesagt, dass ich die rekursive Formel nicht kann. War ihr glaube ich egal, die kann sich wohl keiner merken. Erklärt, dass es sich um Approximationen von sin und cos (mit steigender Frequenz) durch Treppenfunktionen handelt.
Hintergrundidee: FT ist Transformation mit sin und cos. Formeln für wal(x,2k), wal(x,2k-1) aus Niemann hingeschrieben (nicht die Rekursive!), gezeichnet.
Dann bin noch irgendwie auf die Hadamard-Matrix gekommen, ich weiß nicht mehr, ob sie explizit danach gefragt hat. Wollte dann noch wissen, wie das Kronecker-Produkt funktioniert.
Was können sie zu Feature Selection sagen
→ Warum überhaupt? Weil man tausende von Features extrahieren kann und man vermeiden will, untereinander korrelierte oder „bedeutungslose“ Features zu verwenden
→ Minimierung/Maximierung von Zielfunktionen, welche die Fehlerrate approximieren, anhand der Auswahl einer Untermenge der Features. Musste Gott sei Dank keine Zielfunktion hinschreiben!
→ Noch kurz was dazu gesagt, wie man die Features aussucht, die man dann in die Zielfunktion steckt: Greedy, Greedy on hardest pair, Branch&Bound…
Bayes-Klassifikator
→ hingeschrieben
Wie schreiben sie p(y|x) aus
→ Faktorisierung hingeschrieben (prior*likelihood/evidence)