Sie befinden sich hier: Termine » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » Klassifikatorevaluation, Boosting, VJ   (Übersicht)

Prüfer: Nöth

Allgemein sehr freundliche Atmosphäre, ich konnte die meisten Fragen direkt beantworten und hatte die „Keywords“ parat da ich die Fragen fast alle aus vorhergehende Protokollen kannte.

Klassifikatorevaluation, Boosting, VJ

  • Q: Er hat wieder die übliche Confusion Matrix

R\H

9000 1000

1 99

hingemalt und mich dann gefragt wie denn Boosting funktioniert, da ich MedTechler bin sei jetzt ein Direktor einer Klinik und ich solle ihm mal ein Beispiel geben.

  • A: Mehrstufiger Prozess um möglichst früh viele „nicht Kranke“ zu identifizieren ein einfachen Klassifikator am anfang der nicht viel kostet um dann in der nächsten Stufe die Kranken genauer zu betrachten und dann weiter auszusortieren (von ihm kam dann: „ z.B. ein Bluttest“ Ich: Genau Er: Richtig! Dann sollte ich noch erklären worauf VJ abzielt A. Detektion von Gesichtern.

Optimaler Klassifikator

  • Q: Dann ging es um den optimalen Klassifikator. Was ist das?
  • A: Ein optimaler Klassifikator minimiert den Average Loss, wir kennen da z.B. den Bayes Klassifikator der optimal in Hinsicht auf die 1-0 Entscheidung ist. (Dabei auch noch gezeigt wie man das umformulieren kann und über generative modeling und discriminative modeling erzählt)
  • Q: Passt das zu der Confusion Matrix?
  • A: Nein, da sonst wohl eher viele der FP(1000) als richtig klassifiziert worden wären und dafür mehr der TP (99) als FN(1).
  • Q:Wie bekommen wir dann im generative Modeling die Priors? Count and Divide
  • Q: Das geht aber nur dann wenn…? …. die Samples repräsentativ sind.

Dimension Reduction

  • Q: Wenn man zu viele Features hat was kann man da machen? („Suchen sie sich was aus“)
  • A: z.B. PCA.
  • Q: Ja das kann man dazu nutzen muss man aber nicht!
  • A: Ja man kann es auch nur dazu nutzen die Features in einen „besseren “ Feature Space zu bringen ohne die Dimension zu verringern.
  • Q: Aber was ist dann? A: Man hat einen zero mean und nur einträge auf der diagonalen der Kovarianzmatrix.

Gauss Classifier und Decision Boundaries

  • Q: Er hat dann zwei Gauss Verteilungen hingemalt (wie in den Folien nur dass die 45° Ellipse oben war) und mich gefragt wie da die Decision boundary aussieht. A: Erst falsch eingezeichnet (um die senkrecht zur Achse liegende) dann korrigiert . Das hat ihm dann gepasst. Dazu noch erklärt wie es zu der Quadratischen Boundary kommt und wann sie linear wird.

GMM & EM

  • Q:Daraufhin hat er mir eine unförmige Menge hingezeichnet und mich gefragt was man damit denn dann machen kann.
  • A: GMM, Erklärung der Formeln für den EM Algorithmus.
  • Q: Terminiert der EM Algo? (Da hatte er sich selbst irgendwie verhaspelt)
  • A: Nein, aber er konvergiert und dann kann man ab einem bestimmten delta eben aufhören.
  • Q:Zeichnet zwei überlappende Mengen. Was kann denn dazu führen, dass sich Klassen so überlappen?
  • A: 1. Falsche Features zur Repräsentation ausgewählt 2. Rauschen in den Daten 3. Klassenzuweisung wurde falsch gemacht.

SVM

  • Q: Gut dann zur SVM.
  • A: Allgemeine Beschreibung, Hard Margin erklärt, lösbar mit Lagrangian dann direkt auf Complementary Slackness eingegangen und erklärt warum es „Support Vector“ Machine heißt.
  • Q: Dann wollte er noch das Soft Margin Problem erklärt bekommen (Formel) und wollte wissen was denn die Slack Variable dann mit einem Datenpunkt macht wenn der auf der Falschen Seite liegt. A: Durch den Slack wird die Variable auf die Margin der richtigen Klasse gezogen.

Note: 1.0

Vorbereitung sollte absolut auf Verstehen und Erklären der Standardmethoden (Klassifikatorevaluation, Bayes Klassifikator, Decision Boundaries, PCA,LDA,GMM, SVM, Boosting(VJ und AdaBoost)) basieren, viele der komplexeren Themen (Lagrange Dual, Kernel Functions) kommen quasi nie dran. Und Formeln auswendig lernen bringt IMO nicht viel.

Vorbereitet hab ich mich ca. 1.5 -2 Wochen.