Sie befinden sich hier: Termine » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » pr-2019-04-08   (Übersicht)

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen gezeigt.

Link zu dieser Vergleichsansicht

pruefungen:hauptstudium:ls5:pr-2019-04-08 [08.04.2019 14:06] (aktuell)
ThiloK angelegt
Zeile 1: Zeile 1:
 +Atmosphaere und Bewertung wie immer sehr angenehm. Man soll wohl einfach mal reden und alles erzaehlen was man weiss. Er unterbricht einen schon, wenn man zu sehr abschweift.
  
 +**F**: Drei Bereiche in Vorlesung: Daten schaetzen und transformieren,​ Boundary ausrechnen und ...?
 +
 +**A**: Wollte auf Kaskade bzw. Boosting raus
 +  * Boosting an sich erklaert mit Weights fuer Classifier und Feature Vektoren → gemittelte Gesamtentscheidung
 +  * Formeln von AdaBoost aufgeschrieben und erklaert
 +  * Graph fuer err_m aufgemalt und erlaeutert
 +
 +**F**: Welche Kostenfunktion berechnet die Fehlerrate beim erstem Classifier?
 +
 +**A**: Initialgewichte sind 1/N daher 0-1 Loss
 +
 +**F**: Was haben wir dann zum Trennen der Klassen ausser SVM noch gemacht?
 +
 +**A**: Logistic Regression
 +
 +**F**: Zurueck zu SVM, erklaeren Sie mal.
 +
 +**A**: Breite der Margin maximieren
 +  * Bild gemalt und erst mal generell erklaert was das Ziel ist
 +  * Dann Hard Margin Optimierungsproblem hergeleitet
 +
 +**F**: Und wie ist das jetzt mit Slack Variablen?
 +
 +**A**: Optimierungsproblem fuer Soft Margin aufgestellt.
 +
 +**F**: Schreiben Sie mal die Lagrange Funktion hin. Was sind die Variablen?
 +
 +**A**: Dual Problem und Lagrange Funktion hingeschrieben
 +  * ListenpunktVariablen sind alpha, alpha_0, chi, chi_hat und die Lagrange Multiplier
 +  * Wichtig: x ist fest und daher keine Variable!
 +
 +**F**: Und wie funktioniert damit Regression?
 +
 +**A**: Wieder Bild gemalt
 +  * Epsilon Schlauch minimieren, wichtig war ihm, dass Soft Margin Fall hier quasi nicht existent
 +  * Optimierungsproblem dazu hingeschrieben