Sie befinden sich hier: Termine » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » pr-2019-04-08   (Übersicht)

Atmosphaere und Bewertung wie immer sehr angenehm. Man soll wohl einfach mal reden und alles erzaehlen was man weiss. Er unterbricht einen schon, wenn man zu sehr abschweift.

F: Drei Bereiche in Vorlesung: Daten schaetzen und transformieren, Boundary ausrechnen und …?

A: Wollte auf Kaskade bzw. Boosting raus

  • Boosting an sich erklaert mit Weights fuer Classifier und Feature Vektoren → gemittelte Gesamtentscheidung
  • Formeln von AdaBoost aufgeschrieben und erklaert
  • Graph fuer err_m aufgemalt und erlaeutert

F: Welche Kostenfunktion berechnet die Fehlerrate beim erstem Classifier?

A: Initialgewichte sind 1/N daher 0-1 Loss

F: Was haben wir dann zum Trennen der Klassen ausser SVM noch gemacht?

A: Logistic Regression

F: Zurueck zu SVM, erklaeren Sie mal.

A: Breite der Margin maximieren

  • Bild gemalt und erst mal generell erklaert was das Ziel ist
  • Dann Hard Margin Optimierungsproblem hergeleitet

F: Und wie ist das jetzt mit Slack Variablen?

A: Optimierungsproblem fuer Soft Margin aufgestellt.

F: Schreiben Sie mal die Lagrange Funktion hin. Was sind die Variablen?

A: Dual Problem und Lagrange Funktion hingeschrieben

  • ListenpunktVariablen sind alpha, alpha_0, chi, chi_hat und die Lagrange Multiplier
  • Wichtig: x ist fest und daher keine Variable!

F: Und wie funktioniert damit Regression?

A: Wieder Bild gemalt

  • Epsilon Schlauch minimieren, wichtig war ihm, dass Soft Margin Fall hier quasi nicht existent
  • Optimierungsproblem dazu hingeschrieben