Du befindest dich hier: FSI Informatik » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » pr-2019-04-08
Atmosphaere und Bewertung wie immer sehr angenehm. Man soll wohl einfach mal reden und alles erzaehlen was man weiss. Er unterbricht einen schon, wenn man zu sehr abschweift.
F: Drei Bereiche in Vorlesung: Daten schaetzen und transformieren, Boundary ausrechnen und …?
A: Wollte auf Kaskade bzw. Boosting raus
- Boosting an sich erklaert mit Weights fuer Classifier und Feature Vektoren → gemittelte Gesamtentscheidung
- Formeln von AdaBoost aufgeschrieben und erklaert
- Graph fuer err_m aufgemalt und erlaeutert
F: Welche Kostenfunktion berechnet die Fehlerrate beim erstem Classifier?
A: Initialgewichte sind 1/N daher 0-1 Loss
F: Was haben wir dann zum Trennen der Klassen ausser SVM noch gemacht?
A: Logistic Regression
F: Zurueck zu SVM, erklaeren Sie mal.
A: Breite der Margin maximieren
- Bild gemalt und erst mal generell erklaert was das Ziel ist
- Dann Hard Margin Optimierungsproblem hergeleitet
F: Und wie ist das jetzt mit Slack Variablen?
A: Optimierungsproblem fuer Soft Margin aufgestellt.
F: Schreiben Sie mal die Lagrange Funktion hin. Was sind die Variablen?
A: Dual Problem und Lagrange Funktion hingeschrieben
- ListenpunktVariablen sind alpha, alpha_0, chi, chi_hat und die Lagrange Multiplier
- Wichtig: x ist fest und daher keine Variable!
F: Und wie funktioniert damit Regression?
A: Wieder Bild gemalt
- Epsilon Schlauch minimieren, wichtig war ihm, dass Soft Margin Fall hier quasi nicht existent
- Optimierungsproblem dazu hingeschrieben