Sie befinden sich hier: Termine » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » Prüfung Pattern Analysis, SS 2015 (Sept)   (Übersicht)

Prüfung Pattern Analysis, SS 2015 (Sept)

Allgemeines

  • Prüfer: Dr.-Ing. Christian Riess
  • Stimmung: relativ locker
  • Vorbereitung:
    • alle Vorlesungsfolien per Video angeschaut und Tafelbild mitgeschrieben
    • alte Prüfungsprotokolle stichpunktartig in einem Dokument zusammengefasst (nach Kapitel geordnet)
    • Daher konnte ich wissen welche Themen besonders wichtig waren und wie detailliert die Fragen waren.
    • Wichtiges im Skript markiert
    • Wichtiges erneut abgeschrieben (= Merk-Zettel)
    • Merkzettel auswendig gelernt
  • Ergebnis: Ziemlich gut ;)

Prüfungsfragen und Antworten

1. Introduction:

Mindmap hinmalen

2. Manifold Learning

  • Welche Algorithmen gibt es?
  • Was sind Manigfaltigkeiten und Wie funktionieren ISO-Maps?
    • swiss role in 3D hingemalt
    • daneben eine ISOMAP in 2D (aufgerollte swiss roll)
    • Distanzmatrix beinhaltet geodätische Distanzen
    • für eine Nachbarschaft ist die euklidische Distanz eine gute Approximation
    • für weiter entfernte Knoten muss der Dijkstra-Algorithmus den kürzesten Pfad finden
  • Was ist das Optimierungsproblem von Laplacian Eigenmaps und wie funktioniert der Algorithmus.
    • In der Vorlesung wurde dieses Thema 2x (einmal von Christian und einmal von Prof. Hornegger) behandelt.
    • Ich habe Christians Version vom Kapitel Random Forests beschreiben. Er wollte eigentlich die analytische Herleitung der Laplacian-Matrix (von Prof. Hornegger) wissen.
    • Nach der Nebenbedingung wurde auch gefragt: s.th. x'^T D x' = 1

3. Hidden Markov Models

  • Bitte ein einfaches HMM hinzeichnen (und ganz kurz erklären).
  • Was sind die 3 Hauptprobleme bei HMM?
    • 3 Hauptprobleme kurz benannt
    • dann Lösungen bennenen:
      • Forward / Backward-Algorithmus: Motivation? Komplexitäten aufgeschrieben
      • Viterbi-Algorithmus (nur erwähnt, nicht erklärt)
      • Training des HMMs (Baumwelch-Formulas erwähnt)

4. Clustering Es wurde ein Bild mit zwei Männchen aufgemalt. Beide hatten einen roten Kopf und einen blauen Bauch.

  • Wie kann ich hier Siegmentierung betreiben?
    • 3 Algorithmen zu nennen: Hard-Clustering (aka K-Means), Soft-Clustering, MSA
  • Wie funktioniert MSA, wie funktioniert K-Means (im Bezug auf das Beispielproblem)
  • MSA, welche Kernel haben wir kennengelernt?
    • 2 Kernel erwähnt: Epanechnikov, Gaussian
  • Wann wählt man K-Means, wann MSA? Bzw. Was sind die Parameter?
    • K-Means wählt man wenn die Anzahl der Maxima bekannt ist. Parameter ist also k, die Anzahl der Maxima.
    • Wenn die Anzahl der Maxima unbekannt ist, kann man sehr viele MS-Vorgänge initialisieren. Viele werden gegen gleiche Maxima konvergieren. So findet man k Maxima. Parameter ist die Fenstergröße.
  • Wie segmentiere ich die blauen Teile (Bauch) voneinander?
    • meine Anwort: Bump Hunting im 5D-Raum. Dimensionen: X-Koordinate, Y-Koordinate, R-, G-, B-Wert
    • besser wäre gewesen: ich betrachte im Bild nur blaue Feature-Vektoren (Pixel) und finde dann die zwei Körper im Bild durch Clustering.
  • Zeit war um. Die nächste Frage wäre über Unterschiede in der Implementierung von MSA und K-Means gegangen.