Fach: Pattern Recognition WS1819
Prüfer: Nöth
A: Distanz zu allen Punkten berechnen - nächsten Nachbarn nehmen als Referenz
A: Wertebereiche normalisieren
A: Matrixmultiplikationen statt for- Schleifen
A: Batch-weise Entfernungen berechnen
A: 0-1 Loss, da nur die Missklassifikationen gezählt werden
A: NN höchstens 2x so schlecht wie Bayesian
A: y* = argmax_y … umgestellt nach bayes und logarithmiert hingeschrieben und erklärt
A: Formel hingeschrieben und erläutert
A: Die Punkte / Featurevektoren sind unabhängig von einander
A: (nach einiger Zeit im Suchraum möglicher Antworten von Transformation bis Regression, die alle nicht das waren, was er meinte) man nimmt für eine Verteilung ein GMM an (Die nicht-Gaussian ist eine GMM)
A: Intuition hinter GMM und E-M Algorithmus erklärt und EM-Schritte im Detail erklärt, jeweils mit Formeln
A: Hard Margin und Soft Margin am Bild intuitiv erklärt. Herleitung im Stile vom Udacity Tutorial / Erklärung (https://www.youtube.com/watch?v=-ePtSxkmD4g - danke anderer Braindump! ) (er lässt einen recht frei erklären und Feedback war, dass Intution, dann Formeln mit Erklärung ein sehr gutes Vorgehen darstellt). Herleitung bis zum Lagrangian.
A: Problem wieder von Anfang aufgezeichnet, Inequality Constraints aufgezeichnet, die sich wegen fehlender Klassen nicht mehr zusammenfassen lassen. Deshalb Lagrangian Multipliers und Slackvariablen in doppelter Ausführung.
Vorbereitung im 3er Team in den letzten 7-10 Tagen. Schwerpunkte der Vorbereitung: Bayesian Classifier, Loss Functions, SVM/SVR (!!), PCA, LDA, EM/GMM, AdaBoost
Aus meiner Sicht für dieses Fach extrem wichtig nicht nur alleine zu lernen, da man sich gegenseitig aus falschen Sichtweisen hilft. Sehr hilfreich ist, wenn ihr für die immer wieder auftretenden Themen quasi Minireferate (intuitiv und mit Formeln) halten könnt (dann habt ihr auch ein gutes Gefühl dafür, ob ihr den Kern erfasst habt).
Note 1.0