Du befindest dich hier: FSI Informatik » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » Prüfung IntroPR, Februar 2011 (Übersicht)
Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen der Seite angezeigt.
Nächste Überarbeitung | Vorherige Überarbeitung | ||
pruefungen:hauptstudium:ls5:introduction_to_pattern_recognition_februar2011 [22.02.2011 15:32] – angelegt Bergerone | pruefungen:hauptstudium:ls5:introduction_to_pattern_recognition_februar2011 [22.02.2011 15:36] (aktuell) – Bergerone | ||
---|---|---|---|
Zeile 3: | Zeile 3: | ||
Prüferin: Elli Angelopoulou | Prüferin: Elli Angelopoulou | ||
- | Die Prüferin und der Beisitzer bauten schnell eine angenehme Atmosphäre auf. Mein Tipp: Selber viel reden und wenn möglich auch sämtliches mit Skizzen | + | Die Prüferin und der Beisitzer bauten schnell eine angenehme Atmosphäre auf. Mein Tipp: Selber viel reden und wenn möglich auch sämtliches mit Skizzen zeigen. Das nimmt Zeit und bringt gleichzeitig auch rüber das man den Stoff gut verstanden hat. |
===== IntroPR ===== | ===== IntroPR ===== | ||
Zeile 12: | Zeile 12: | ||
* Feature Extraction (analytic und heuristic erklären) | * Feature Extraction (analytic und heuristic erklären) | ||
* Walsh-Hadamard-Transform erklären (Zunächst hinzeichnen und erklären das die Walsh Functions approximationen von Sinus und Cosinus sind und deshalb die Trafo die Fouriertranformation nachbildet, aber wesentlich schneller zu berechnen ist -> Dann Hadamard Matrix und Kronecker Produkt erklären und Formel c=\Phi*f hinschreiben) | * Walsh-Hadamard-Transform erklären (Zunächst hinzeichnen und erklären das die Walsh Functions approximationen von Sinus und Cosinus sind und deshalb die Trafo die Fouriertranformation nachbildet, aber wesentlich schneller zu berechnen ist -> Dann Hadamard Matrix und Kronecker Produkt erklären und Formel c=\Phi*f hinschreiben) | ||
- | * Feature Selection: Warum Selection? (Redundanz des feature Vektors beseitigen; Dimension | + | |
+ | | ||
* Feature Selection: Mutual Information Objective Function hinschreiben und sagen das, dass auch die KL-Divergence darstellt | * Feature Selection: Mutual Information Objective Function hinschreiben und sagen das, dass auch die KL-Divergence darstellt | ||
* Bayes Decision Rule: \lamba = argmax{\kappa} p(\Omega_{\kappa} | c) | * Bayes Decision Rule: \lamba = argmax{\kappa} p(\Omega_{\kappa} | c) |