Du befindest dich hier: FSI Informatik » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » Mustererkennung 2009 (Übersicht)
Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen der Seite angezeigt.
Beide Seiten, vorherige ÜberarbeitungVorherige ÜberarbeitungNächste Überarbeitung | Vorherige Überarbeitung | ||
pruefungen:hauptstudium:ls5:januar2009 [27.04.2009 15:16] – immoartl | pruefungen:hauptstudium:ls5:januar2009 [11.10.2009 11:56] (aktuell) – katti | ||
---|---|---|---|
Zeile 1: | Zeile 1: | ||
====== Mustererkennung 2009 ====== | ====== Mustererkennung 2009 ====== | ||
- | ==== 17. Maerz: Me1 & Me2 ==== | + | ==== 17. März: Me1 & Me2 ==== |
**Bemerkungen**\\ | **Bemerkungen**\\ | ||
* Prüfer: Frau Angelopoulou, | * Prüfer: Frau Angelopoulou, | ||
Zeile 8: | Zeile 8: | ||
**Fragen** \\ | **Fragen** \\ | ||
* Big Picture | * Big Picture | ||
- | * Pre-Processing: | + | * Pre-Processing: |
* Feature Extraction: | * Feature Extraction: | ||
* Was ist __PCA__? \\ Bildchen | * Was ist __PCA__? \\ Bildchen | ||
- | * Was ist __LDA__? \\ Bildchen\\ auf Nachfrage: Optimierungsproblem anhand von Fisher LDA erklaert | + | * Was ist __LDA__? \\ Bildchen\\ auf Nachfrage: Optimierungsproblem anhand von Fisher LDA erklärt |
* Pre-Processing: | * Pre-Processing: | ||
- | * Erklaeren | + | * Erklären |
- | * Erklaeren | + | * Erklären |
* Optimierungsfunktion hinschreiben\\ max C und wollte dann wohl noch a*c + a_0 >= C | * Optimierungsfunktion hinschreiben\\ max C und wollte dann wohl noch a*c + a_0 >= C | ||
* Constraints beachten? Wie? \\ Lagrange Multiplier nach Umformung bzgl. Normierung ->-> lambda(a*c + a_0 - 1) | * Constraints beachten? Wie? \\ Lagrange Multiplier nach Umformung bzgl. Normierung ->-> lambda(a*c + a_0 - 1) | ||
* Was wird bei nicht trennbaren Klassen gemacht? \\ Slack-Variablen; | * Was wird bei nicht trennbaren Klassen gemacht? \\ Slack-Variablen; | ||
- | * __Rosenblatt' | + | * __Rosenblatt' |
- | * Was fuer andere Klassifikationsansaetze gibt es noch, bei denen eine lineare Entscheidungsfunktion ' | + | * Was für andere Klassifikationsansaetze gibt es noch, bei denen eine lineare Entscheidungsfunktion ' |
* Was sind das jeweils fuer Optimierungsprobleme? | * Was sind das jeweils fuer Optimierungsprobleme? | ||
- | * Wie wuerden | + | * Wie würden |
- | ==== 17. Maerz: Me1 & Me2 ==== | + | ==== 17. März: Me1 & Me2 ==== |
**Bemerkungen**\\ | **Bemerkungen**\\ | ||
- | * Pruefer: Frau Angelopoulou, | + | * Prüfer: Frau Angelopoulou, |
**Fragen** \\ | **Fragen** \\ | ||
* Big Picture | * Big Picture | ||
- | * Sampling: \\ __Nyquist__ Theorem | + | * Sampling: \\ __Nyquist__ Theorem |
- | * Feature Extraction: \\ __Walsh-Transformation__ | + | * Feature Extraction: \\ __Walsh-Transformation__ |
- | * Classification: | + | * Classification: |
| | ||
- | * __SVM__ \\objective function aufschreiben | + | * __SVM__ \\ //objective function// aufschreiben |
* __Rosenblatt' | * __Rosenblatt' | ||
- | * __HMM__\\Ausgabewahrscheinlichkeiten \\ Forward-Algorithmus (Bildchen war ihm zu wenig; Formel mit ' | + | * __HMM__\\ Ausgabewahrscheinlichkeiten \\ Forward-Algorithmus (Bildchen war ihm zu wenig; Formel mit ' |
* __Deleted Interpolation__ | * __Deleted Interpolation__ | ||
- | ==== xx.yy: | + | ==== Me1 & Me2 ==== |
* Big Picture | * Big Picture | ||
Zeile 49: | Zeile 49: | ||
* Feature Extraction: PCA, LDA | * Feature Extraction: PCA, LDA | ||
* Classification: | * Classification: | ||
- | |||