====== Prüfung Pattern Analysis, SS 2015 (Sept) ====== ===== Allgemeines ===== * Prüfer: * Stimmung: * Vorbereitung: * Ergebnis: ===== Prüfungsfragen und Antworten ===== ==== HMM ==== * states, aij usw. ergodic, linear, left-right hinmalen * 3 Probleme ansprechen: - Marginalization - wahrscheinlichste State Sequence: Viterbi-Algorithmus mittels Forward-Algorithmus (Rabiner89) und dann Summe durch argmax ersetzen - Training besteht aus EM und Baumwelche (keine weitere Erklärung) ==== Manifold learning: ==== Punktwolke “e” hingemalt und gefragt was man damit machen möchte (entrollen) und wie das mit einem Forest gelöst wird → Schnitte von zwei verschiedenen Bäumen hingemalt, Affinitätsmatrix erklärt, dann Laplacian genannt und dass Eigenwerte genutzt werden um x‘ in d‘ darzustellen ==== Laplacian Eigenmaps: ==== Optimierungsproblem aufstellen ||xi-xj||*wij → min und Ergebnis der Umformung hinschreiben (Nebenbedingung einführen: (X^T)DX=1) => (D^-1)(D-W)X‘ =l*X‘…….D-W = Laplacian ==== Forests: ==== * anhand von beispielhaften Samples Information gain und Entropie für Classification erklären ==== K-Means ==== * erklären (Bild malen) ==== Parzen window: ==== * erklären, wie man auf k/(N*V) kommt (über Integral) und wie man optimale Fenstergröße ermittelt: - Nummerierter ListenpunktCross validation: phj=1/(N-1)*Summe Kernel - Nummerierter ListenpunktML^h = argmax phj * Produkte j=1…N phj