Du befindest dich hier: FSI Informatik » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » pa-2019-07-29   (Übersicht)

Dies ist eine alte Version des Dokuments!


Pattern Analysis Prüfer: Riess

Q: Give an overview over the lecture A: Find structure in data:

  1. Density Estimation
  2. Clustering
  3. Segmentation (Trees)
  4. Hidden Data

Dann jeweils bisschen in die Tiefe gegangen, unterbrochen bei K-Means

Q: K-Means is considered „hard“, GMM clustering considered „soft“ - why? A: K-Means yields a strict assignment of a data point to a cluster, GMM yields assignments to all clusters with probabilities

Q: … how do we select a K? A: Three ways: Tibshirani Gap Staticstics [Beschreibung] … unterbrochen

Q: How do we select the number of GMMs? A: I suppose it would also work with a weighted within-cluster distance gap like in tibshirani but we did it with CRP / Gibbs sampling [Beschreibung]

Q: In that sense what is the „rich get richer“ factor here? A: The prior for a Gaussian [Beschreibung]

Q: For manifold learning what kinds of algorithms do we have A: Common element: similarity matrix and projection on low-dim space via eigenvectors of the similarity matrix. Explain MDS and Laplacian [unterbrochen, bevor ich zu den anderen kommen konnte]

Q: How does Laplacian Eigenmaps work? A:

  1. Construct Adjacency Graph 
  2. Compute Affinities
  3. Eigendecomposition
  4. Lower-Dimensional Embedding
  

Q: What is the objective function of the Laplacian Eigenmaps? A: sum l2_norm(xi - xj)*wij (oder so)

Q: Yes but then if we derive it what do we have? A: [falsch hingeschrieben, gesucht war D^-1L * x = lambda * x] and then we can do Eigendecomposition

Q: When do we have an advantage of Density Trees and when is a heat kernel prefferable Die Frage habe ich nicht genau verstanden, hab aber dann ein bisschen erklärt wie die weights in einem Density Tree segmentierten Bereich mit den Kovarianzen der leaf densities der Form des Gaussians rechnung tragen. Das hat ihm gefallen …

Q: Without going into detail of HMMs and MRF - what are graphical models and what do they model? A: Statistical Dependencies between random variables.

Q: Please formularize that A: [nicht ganz richtig gemacht, was er als größtes Problem an der Prüfung gesehen hat] Independency assumptions formal hinschreiben (Produkt über alle variablen usw…) Er meinte, dass es sehr wichtig ist das sicher zu können.

Q: What is a MRF? What do we use it for? A: We try to model structures in „grid-like“ data by trying to infer hidden information based on the observable grid. Observations only depend on the hidden counterpart. hidden counterparts only depend on the observable counterpart and the grid neighbors … [mehr beschreibung, überführung in GRF, Submodularity condition]

Q: Please state the GRF probability A: p(x) = 1/Z * e^(-H(x)); H(x) = sum(Vm(x))

Q: Please state an example potential function A: They depend on what you actually try to infer in the data (denoising, segmentation). For denoising we have for the pairwise potentials II(fij - f')II²

Vorbereitung: zu zweit 6 Tage, Zusammenfassung aus verschiedenen Skripten (da wir nur die VL 2018 gesehen haben) geschrieben. Meta-Summary mit den wichtigsten Formeln (4 Seiten) zum auswendig Lernen (hilft beim Verständnis und bei einer live demo wenn man nicht zögert beim schreiben) erstellt.

Note: 1,3

Insgesamt wären noch ein paar Tage besser um letzte Lücken zu stopfen und evtl. sogar ein paar Herleitungen nachvollziehen zu können.