Sie befinden sich hier: Termine » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » Prüfung IntroPR, Februar 2011   (Übersicht)

Prüfung IntroPR, Februar 2011

Allgemeines

Pruefer: Elli Angelopoulou

Mapping der momentanen Vorlesungsnamen am LS 5 auf die früheren Bezeichnungen (ohne Gewähr)

  • IntroPR → PR → ME1
  • PR → PA → ME2
  • PA → PA++ (neue Vorlesung)

Zur Prüfung: bei mir gings nur um IntroPR, die Prüfungsatmosphäre war angenehm, lieber beim Erklären mehr Zeit lassen, dafür Bildchen malen und Formeln aufschreiben, das baut Nervorsität ab und zeigt auch, dass man es wirklich verstanden hat. Wenn man ne Formel aufschreibt, immer erklären für was die Variablen stehen usw…

IntroPR

  • Pipeline
  • Kapitel A/D komplett übersprungen
  • verschiedene Pre-Processing Methoden nennen
  • verschiedene Thresholding Methoden nennen
  • Intersection of Gaussians erklären (die gewichtung mit der prior nicht vergessen, ich sollte auch kurz skizzieren wie man denn jetzt auf \theta kommt (2 Gaussians gleichsetzen, logarithmus zur Vereinfachung benutzen, …)
  • Feature Extraction (analytic vs. heuristic)
  • Walsh-Hadamard-Transform erklären (mit Kronecker Product, was ist WHT? → orthogonal basis projection (allgemeine Formel: c = \Phi * f )
  • Feature Selection (Methoden charakterisiert durch: 1. obj. functions, 2. optimization (search) method)
  • Feature Selection → Optimization Methods aufzählen und Branch & Bound genauer erklären
  • Bayes Decision Rule: \lamba = argmax{\kappa} p(\Omega_{\kappa} | c)
  • Umformung: \lamba = argmax{\kappa} p( \Omega_{\kappa} | c ) = argmax{\kappa} (p( \Omega_{\kappa} )*p( c | \Omega_{\kappa}) ) / p( c ) = argmax{\kappa} p( \Omega_{\kappa} )*p( c | \Omega_{\kappa} ) ← weil p( c ) unabhängig von der optimierung
  • wann ist sie optimal? (0,1)-cost function, aber auch bei (0,N)-cost function, wenn N eine Konstante ist
  • Wie benutzt man den Bayes Classifier? entwerder normal-verteilte class conditionals annehmen (Gaussian Classifier → MLE) oder die pdf durch K-NN, bzw. Parzen Windows schätzen (beide basierend auf relative frequencies); die prior probabilities lassen sich - angenommen man hat ein repräsentatives training set - ganz leicht aus den Daten ermitteln → p( \Omega_{\kappa} ) = (#samples of \Omega_{\kappa}) / (#all samples)