Sie befinden sich hier: Termine » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » intropr-15   (Übersicht)

Prüfung: Introduction to Pattern Recognition (mit Übung) 7.5 ECTS
Prüfer: Dr. Stefan Steidl
Vorbereitung: Auch wenn keine explizite Frage zur Übung gestellt wurde, würde ich das Besuchen der Übung schon allein zum Verständnis empfehlen. Zur Vorbereitung auf die Prüfung empfiehlt es sich die Vorlesungsfolien wirklich im Detail durchzugehen. Außerdem ist es hilfreich sich in der Vorlesung Notizen zu den Folien gemacht zu haben.
Allgemeines: Angenehme Atmosphäre, nicht locker aber auch nicht gespannt. Ich hatte den Eindruck, dass Herr Steidl sehr präzise Antworten bevorzugt. Wenn man etwas unklar oder falsch formuliert oder aufschreibt, kann man sicher sein, dass eine Nachfrage dazu kommt. Bei der Benotung wird aber über die ein oder andere kleine Lücke hinweggesehen. Bei Lücken wartet Herr Steidl geduldig und hilft ggf. weiter. Wenn man auf etwas gar nicht kommt, wird man (bevor die nächste Frage gestellt wird) über die richtige Lösung aufgeklärt.

Fragen & Antworten:

  • Pattern Recognition Pipeline vorstellen

Hier kann man auch gleich ein paar der behandelten Themen nennen.

  • Eine kontinuierlich von 0 auf 16 kHz ansteigende Sinus-Welle wird mit einer Samplingrate von 16 kHz abgetastet. Was hören Sie?

Bis zur Hälfte steigt die Tonhöhe kontinuierlich an, dann sinkt sie wieder ab, weil höhere Frequenzen als die Abtastfrequenz in den niederfrequenten Bereich gemapped werden (Aliasing). (Siehe Beispiel 2)

  • Was ist ein lineares System?

Definition eines morphologischen Systems hingeschrieben und darauf hingeweisen, dass T eine lineare Transformation ist, wenn man die Operatoren durch + und * ersetzt.

  • Was ist die Impulsantwort?

Dirac-Impuls; die Impulsantwort an Stelle [jk, uv] ist dann die Dirac-Funktion an Stelle [j - u, k - v] nach Anwenden der Transformation T.

  • Filtermaske für Kantenerkennung hinschreiben

Z.B. Sobel-Operator [-1 0 1; -2 0 2; -1 0 1] in x- bzw. [-1 -2 -1; 0 0 0; 1 2 1] in y-Richtung.

  • Woher kommen die Zahlen für den Sobel-Operator?

Hier habe ich argumentiert, dass der größere Kernel im Vergleich zu [-1 1] robuster gegen Rauschen ist und die mittlere Zeile höher gewichtet wird. Die Ableitung kann man durch die Vorwärtsdifferenz bestimmen ähnlich dem Differenzialquotient lim h - > 0 ( ( f(x + h) - f(x) ) / h, wobei bei Bildern h=1 Pixel entspricht.

  • Das gehörte jetzt zur ersten Ableitung. Gibt es noch weitere?

Laplacian: Nullstellen der zweiten Ableitung. Laplacian Kernel: [0 1 0; 1 -4 1; 0 1 0]. Da die zweite Ableitung sehr empfindlich auf Rauschen reagiert, wendet man überlicherweise eine Rauschfiltermethode (Gauss) zuerst auf das Bild an. Da die Faltung distributiv ist, kann man Gauss- und Laplace-Filter auch zuerst falten (Laplacian of Gaussians).

  • Wie kommt man dann auf den Filterkernel?

Gauss-Funktion für ein- und mehrdimensionalen Fall hinschreiben. Erzählen, dass man die Gauss-Funktion zweimal ableiten und mit einem Sampling-Gitter abtasten müsse.

  • Prüfer legt zwei binäre Bilder vor. Eines zeigt einen großen Kreis, in dem zwei Mengen von Kreisen mit unterschiedlichen Größen zu erkennen sind. Im zweiten Bild sind die kleineren Kreise verschwunden. Welche Art von Filter wurde hier angewendet?

Eine morphologische Operation, nämlich Binary closing. Kurz erklären, wie Erosion und Dilation funktionieren und wie daraus die Opening- und Closing-Operationen hervorgehen.

  • Geht das auch mit Graustufenbildern?

Ja, Erosion auf Graustufenbild entspricht Minmum der Intensitätswerte unter dem Strukturelement und hilft gegen weiße Pixel (Salt Noise), Dilation entspricht Maximum der Intensitäten und hilft gegen schwarze Bildpunkte (Pepper Noise).

  • Was ist der Unterschied zwischen heuristischen und analytischen Methoden zur Feature Extraction?

Heuristisch: basierend auf Experimenten, Expertenmeinung etc. Analytisch: Optimierung einer Zielfunktion, welche die Qualität der Features sicherstellt.

  • Zielfunktion der PCA hinschreiben

Ansatz der Herleitung mit Maximierung der Distanz zwischen allen Paaren von Feature Vektoren sowie resultierende Zielfunktion hingeschrieben.

  • Gibt es noch eine andere Möglichkeit die PCA herzuleiten?

Minimierung des mean square error führt auch zur PCA für Samples mit dem 0-Vektor als Mittelwert.

  • Man kann bekanntlich keine Feature Transformation entwickeln, die für alle möglichen Signale optimal ist. In welchem Sinne steht optimal?

Minimierung der Anzahl der falschen Klassifikationen; Entwicklung einer Transformation, welche die Anzahl der Falschklassifikationen minimiert.

Einführung von Kosten eines zu Klasse k gehörenden Feature Vektors in die richtige Klasse k, eine Rejection Class 0 und eine falsche Klasse l. Wahrscheinlichkeitsdichte der probability of confusion und Risiko einer Entscheidungfunktion hingeschrieben und Test Statistics markiert.