Angenehme Atmosphaere.

Pruefung bestand fast ausschliesslich aus SVM / SVR.

- Wieso koennen ueberlappende konvexe Huellen der Trainingsvektoren zweier unterschiedlicher Klassen vorkommen?

  1. Noise
  2. Misclassification
  3. fehlende Informationen (unterscheidungsstarke Features weggeworfen)

(hier war es wichtig, alle drei Punkte aufzaehlen zu koennen)

- SVM:

  1. Intuitive Erklaerung und Formel + Constraints fuer das Soft Margin Problem
  2. Weiter ging es mit dem dualen Problem
  3. Dual Problem (Lagrangian) ; Lagrangian abgeleitet nach alpha und Erhalten der Gleichung alpha = <sigma> lambda_i * y_i * x_i
  4. KKT (v. a. im Hinblick auf complementary slackness: lambda muss 0 sein fuer non-support vectors, fuer support vectors ist das entsprechende f_i(x) gleich 0)
  5. Ueberleitung zu Kernel (hier war die allgemeine Formel fuer polynomial Kernel gefragt)
  6. Feature Transform von (x_1, x_2)^T in 6-dimensionalen Featurevektor, damit man lineare Decision Boundary bekommt
  7. Erklaerung kernel trick

- SVR:

  1. Unterschied SVR und SVM
    1. SVM: Featurevektoren sollen ausserhalb der Margin und auf der richtigen Seite sein
    2. SVR: Featurevektoren sollen innerhalb der Margin (dem Toleranzbereich) liegen, hier epsilon erwaehnen
  2. Optimierungsproblem SVR mit Constraints fuer upper und lower bound und beide Xi_i >= 0