Du befindest dich hier: FSI Informatik » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » Prüfung PR - Nöth - Februar 2020
Prüfung PR - Nöth - Februar 2020
SVR und SVM (alle Fragen und Formel bezogen sich auf Soft-margin)
F: Was sind die Unterschiede zwischen SVM und SVR?
A: Bei SVR versuche ich durch eine Punktmenge eine Gerade bzw. eine Hyperplane zu legen. Diese Hyperplane hat eine Margin, die ich minimieren will. Für Punkte die außerhalb liegen habe ich eine Fehlerfunktion. Bei SVM habe ich zwei Punktmengen. Ich möchte ein Hyperplane finden, dass beide Mengen trennt. Hierbei soll die Margin maximiert werden.
F: Wie modelliere ich SVM mathematisch?
A: *Formel hinschreiben und erklären. Bei so etwas bietet es sich an selbstständig zu beschrieben, wie man auf die Fromel kommt. Nach der Prüfung meinte er, dieser Teil hätte ihm besonders gefallen. Ich bin unter anderem darauf eingegangen, was mein α ist („Normalenvektor“), in welche Richtung dieser zeigt, wieso er minimiert wird, und wieso bei den Nebenbedingungen größer gleich 1 gefordert wird.*
F: Wie modelliere ich SVR?
A: *Selbes Spiel. Formel hinschreiben, erklären wie man darauf kommt.*
F: Zurück zur SVM. Wie löse ich nun dieses Problem? Schreiben sie mir den Lagrangian hin.
A: *Lagrangian hinschreiben*
F: Wie löse ich das?
A: Ich forme es um in ein Lagrange-Dual-Problem
F: Dazu müssen einige Bedingungen gelten…
A: *KKT-Bedingungen auflisten*
F: Zu den dual-constraints und der complementary slackness kommen wir später. Sie sagten der Gradient müsse 0 sein. Leiten sie ihren Lagrangian ab.
A: *Hier hab ich mit der Ableitung nach α begonnen. Glücklicherweise wollte er darauf hinaus und ich musste nicht den gesamten Gradienten bilden.*
F: Sie erhalten hier eine Formel für ihr Alpha. Was bedeutet sie?
A: An der Formel erkennt man, dass mein Alpha eine Linearkombination meiner Feature-vektoren ist.
F: Nun zur complementary-slackness und den dual-constraints. Was bedeuten diese?
A: Aufgrund dieser beiden habe ich strong duality. *Formel hinschreiben*
F: Was folgt daraus für ihr Alpha?
A: *Hier stand ich etwas auf dem Schlauch. Er wollte darauf hinaus, dass meine Support-vektoren diejenigen Feature-vektoren sind für die λ > 0 gilt*
F: Wie sieht meine Formel dann am Ende aus?
A: *Formel hinschreiben* Meine Feature-vektoren kommen als Skalarprodukt vor.
F: Meine Daten sind oftmals nicht durch eine Gerade trennbar. Was kann ich machen?
A: Ich kann durch eine Transformation meine Daten „trennbar“ machen. *Hier stand ich ebenfalls auf dem Schlauch, ich dackte er wolle auf den kernel-Trick hinaus*
F: Wie sieht das ganze für eine quadratische Transformation aus.
A: Φ(x) = (x_1^2 x_2^2 x_1*x_2 x_1 x_2 1)T
F: Sie haben vorher den Kernel-Trick erwähnt, wie sieht dieser für den quatratischen Fall aus und was gewinne ich durch ihn?
A: (<x_1,x_2> + 1) ^ 2 . Ich muss nun nicht mehr die Transformation für alle Feature-vektoren berechnen, sondern kann den Kernel anwenden.
Fazit: Note: 1.0 die Bewertung ist sehr fair wenn man bedenkt, dass ich öfters nich weiter wusste. Es hat mich etwas gewundert, dass nur ein Thema, dieses dafür umso tiefgreifender, dran kam. Selbständiges erklären bringt Plus-Punkte und man bekommt Hilfe wenn man etwas gerade nicht weis.