Du befindest dich hier: FSI Informatik » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » pr-2020-02-21_2 (Übersicht)
Angenehme Atmosphaere.
Pruefung bestand fast ausschliesslich aus SVM / SVR.
- Wieso koennen ueberlappende konvexe Huellen der Trainingsvektoren zweier unterschiedlicher Klassen vorkommen?
- Noise
- Misclassification
- fehlende Informationen (unterscheidungsstarke Features weggeworfen)
(hier war es wichtig, alle drei Punkte aufzaehlen zu koennen)
- SVM:
- Intuitive Erklaerung und Formel + Constraints fuer das Soft Margin Problem
- Weiter ging es mit dem dualen Problem
- Dual Problem (Lagrangian) ; Lagrangian abgeleitet nach alpha und Erhalten der Gleichung alpha = <sigma> lambda_i * y_i * x_i
- KKT (v. a. im Hinblick auf complementary slackness: lambda muss 0 sein fuer non-support vectors, fuer support vectors ist das entsprechende f_i(x) gleich 0)
- Ueberleitung zu Kernel (hier war die allgemeine Formel fuer polynomial Kernel gefragt)
- Feature Transform von (x_1, x_2)^T in 6-dimensionalen Featurevektor, damit man lineare Decision Boundary bekommt
- Erklaerung kernel trick
- SVR:
- Unterschied SVR und SVM
- SVM: Featurevektoren sollen ausserhalb der Margin und auf der richtigen Seite sein
- SVR: Featurevektoren sollen innerhalb der Margin (dem Toleranzbereich) liegen, hier epsilon erwaehnen
- Optimierungsproblem SVR mit Constraints fuer upper und lower bound und beide Xi_i >= 0