Atmosphaere und Bewertung wie immer sehr angenehm. Man soll wohl einfach mal reden und alles erzaehlen was man weiss. Er unterbricht einen schon, wenn man zu sehr abschweift. **F**: Drei Bereiche in Vorlesung: Daten schaetzen und transformieren, Boundary ausrechnen und ...? **A**: Wollte auf Kaskade bzw. Boosting raus * Boosting an sich erklaert mit Weights fuer Classifier und Feature Vektoren → gemittelte Gesamtentscheidung * Formeln von AdaBoost aufgeschrieben und erklaert * Graph fuer err_m aufgemalt und erlaeutert **F**: Welche Kostenfunktion berechnet die Fehlerrate beim erstem Classifier? **A**: Initialgewichte sind 1/N daher 0-1 Loss **F**: Was haben wir dann zum Trennen der Klassen ausser SVM noch gemacht? **A**: Logistic Regression **F**: Zurueck zu SVM, erklaeren Sie mal. **A**: Breite der Margin maximieren * Bild gemalt und erst mal generell erklaert was das Ziel ist * Dann Hard Margin Optimierungsproblem hergeleitet **F**: Und wie ist das jetzt mit Slack Variablen? **A**: Optimierungsproblem fuer Soft Margin aufgestellt. **F**: Schreiben Sie mal die Lagrange Funktion hin. Was sind die Variablen? **A**: Dual Problem und Lagrange Funktion hingeschrieben * ListenpunktVariablen sind alpha, alpha_0, chi, chi_hat und die Lagrange Multiplier * Wichtig: x ist fest und daher keine Variable! **F**: Und wie funktioniert damit Regression? **A**: Wieder Bild gemalt * Epsilon Schlauch minimieren, wichtig war ihm, dass Soft Margin Fall hier quasi nicht existent * Optimierungsproblem dazu hingeschrieben