Angenehme Atmosphaere. Pruefung bestand fast ausschliesslich aus SVM / SVR. - Wieso koennen ueberlappende konvexe Huellen der Trainingsvektoren zweier unterschiedlicher Klassen vorkommen? - Noise - Misclassification - fehlende Informationen (unterscheidungsstarke Features weggeworfen) (hier war es wichtig, alle drei Punkte aufzaehlen zu koennen) - SVM: - Intuitive Erklaerung und Formel + Constraints fuer das Soft Margin Problem - Weiter ging es mit dem dualen Problem - Dual Problem (Lagrangian) ; Lagrangian abgeleitet nach alpha und Erhalten der Gleichung alpha = lambda_i * y_i * x_i - KKT (v. a. im Hinblick auf complementary slackness: lambda muss 0 sein fuer non-support vectors, fuer support vectors ist das entsprechende f_i(x) gleich 0) - Ueberleitung zu Kernel (hier war die allgemeine Formel fuer polynomial Kernel gefragt) - Feature Transform von (x_1, x_2)^T in 6-dimensionalen Featurevektor, damit man lineare Decision Boundary bekommt - Erklaerung kernel trick - SVR: - Unterschied SVR und SVM - SVM: Featurevektoren sollen ausserhalb der Margin und auf der richtigen Seite sein - SVR: Featurevektoren sollen innerhalb der Margin (dem Toleranzbereich) liegen, hier epsilon erwaehnen - Optimierungsproblem SVR mit Constraints fuer upper und lower bound und beide Xi_i >= 0