Sie befinden sich hier: Termine » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » pr-2018-02-27   (Übersicht)

Examiner: Prof. Nöth

Atmosphere: Freundlich, ich war ein weniger früher da und konnte so ein paar zwanglose Worte wechseln. Hat zu Beginn gut den Druck rausgenommen.

Ablauf, soweit ich das noch auf die Reihe krieg:

  • Q: „Wir hatten SVMs behandelt, können sie mir das Thema genauer beschreiben?“
    • ausgeholt über das Perceptron - wir suchen eine Dec. Boundary die gut generalisiert
    • zwei konvexe Hüllen hingemalt, Beispiele für schlechte Perceptron Boundary, Beispiel für Hard-Margin SVM (Boundary plus Margin eingezeichnet)
    • Soft Margin erklärt, Formeln
    • Primal und Dual Problem, KKT Conditions, Kernels
  • Q: „Beim Dual Problem hat sich da was praktisches aufgetan, weil die Samples nur noch in Form eines Skalarprodukts vorkommen…“
    • Kernels, implizite Transformation in anderen Raum
  • Q: „In der Übung hatten wir Support Vector Regression behandelt, können sie mir das näher erklären?“
    • Regression vs Classification
    • Optimierungsproblem hingeschrieben und anhand einer Skizze verdeutlicht
    • zwei Sets von Xi angesprochen
    • Loss aufgezeichnet (Dead-Zone in Abhängigkeit von Epsilon)
  • Q: „Können sie mir das Konzept von Boosting genauer erläutern?“
    • Adaboost, Pseudocode mit Formeln für Errorrate, Classifierweight neue Sampleweights
  • Q: „Was ist das am Anfang für eine Loss-Funktion“
    • 0/1-Loss, danach exponentieller Loss
  • Q: „Wie war der Loss bei der SVM?“
    • Hinge Loss mit Margin auf x-Achse angezeichnet
  • Q: „Wie wäre denn der Loss bei normaler Regression, so wie man ihn in der Schule gelernt hat?“
    • Bei Least-Squares ist der quadratisch. Hab ihn noch eingezeichnet.
  • Q: „Wie hängt die Performance vom Bayes mit dem Nearest Neighbour zusammen?“
    • Da hatte ich keinen Ahnung, hab ihm das auch gleich so gesagt. Er hats mir erklärt, ich habs aber nicht gerafft ^^ Da müsst ihr wohl selber suchen…

Für mich hat es noch für eine 1.0 gereicht, obwohl ich die letzte Frage nicht beantworten konnte. Das lag aber glaube ich daran, dass ich offen damit umgegangen bin und nicht um den heißen Brei herumgeredet habe. Die Benotung ist also auf jeden Fall fair, bzw freundlich. Ihr könnt gut Zeit rausholen, wenn ihr die Probleme verständlich aufzeichnet und Formeln hinschreibt. Das jeweilige Optimierungsproblem zum Einstieg wollte er meistens schon sehen, bzw ich hab es ihm einfach hingeschrieben.

Ich habe mich sehr ausgiebig auf die Prüfung vorbereitet, neben der Vorlesung auch die Online-Video angeschaut und mir dann eine Zusammenfassung der Folien geschrieben. Insgesamt werden es wohl ca. 4 Wochen Vorbereitung gewesen sein, in den letzten zwei Wochen dann aber konzentriert. Bei Herleitungen reicht mMn der Einstieg, also das Optimierungsproblem und dann evtl das Ergebnis nach diversen Umformungen. Den Weg selbst müsst ihr nicht lernen, aber zumindest grob wissen, was mir gemacht haben (siehe KKT Condtions).