Sie befinden sich hier: Termine » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » pa_oktober_14   (Übersicht)

Prüfer: Prof. Hornegger

Kann nur bestätigen: sehr faire Prüfung, in entspannter Atmosphäre.

Überblick

„Wolke“ malen, ohne Objective Functions Hierbei hat er schon bei Mean Shift gesagt: „Das ist ein cooler Algorithmus, oder?“ oder sowas in der Art und ich hab es sehr stark bestätigt. Das war dann auch mein erstes Thema :) Bei HMM hab ich erst HHM gesagt und daraus hat er dann Honegger Models gemacht ;) Daher war dann schon das zweite Themengebiet klar…

Mean Shift

Erst mal ein Bilchen gemalt (das aus den Folien) und daran den Algorithmus erklärt, dann die 2 Schritte hingeschrieben. Wie leitet man das her? Parzen window Formel hingeschrieben und gesagt, dass man den gradienten bestimmt. Dann gleich 0 setzten. Wollte er leider nicht vorgerechnet bekommen. Dann hab ich noch gesagt, dass es vielseitig anwendbar ist. Bsp: Clustering mit Mean Shift (Zeichnung mit Attraktionsgebiet machen). Hier hat ihm glaub ich mein Beispiel wie man sich das vorstellen kann sehr gut gefallen. Hab erzählt, dass ich mir das so vorstelle, wie die Alpen und das ein Flugzeug drüber fliegt und in regelmäßigen Abständen die Raraglider runter springen und dann wenn sie unten ankommen nur bergauf laufen. Dann hab ich leider noch gesagt, dass es auch noch im Bereich der Computer vision eingesetzt werden kann. Daraufhin er , wo denn da? Meinte ich Bildsmoothing mit Kantenerhaltung. (auch Thema der hochgeladenen Folien) leider konnte ich ihm das dann nicht weiter erklären. Hat am Ende aber nur 5 fehlende Punkte ausgemacht. ;)

HMM Bild hingemalt, erklärt was pi, a, und so ist. dann die 3 Grundprobleme hingeschrieben (dabei leider den Optimierungskerl mal umbenannt ;)) Dann auf Marginalisierung genauer eingeganen. Hierfür die gesamte Formel hingeschrieben und umgeschrieben mit den Summen innen und die Komplezitäten erklärt. Von O(m^n) zu O(n+m^2) Hier dann auf das zweite Problem eingegangen und aus allen Summen eine maximierung gemacht.

Manifold Learning

Erklären wie MDS funktioniert: Eigentlich hat er in der Einleitung der Frage schon alles erzählt von hochdimensionale Features will man auf eine niedriger dimensionalen Raum bringen und man hat nur die Distanzen der Punkte gegeben, jetzt möchte man aber die Punkte an sich haben… -1/2 CD^2C hinschreiben, erwähnen, dass C eigentlich nur den mean abzieht und zeigen, dass sich am Ende B = X^T*X ergibt Dann hab ich die komplette Herleitung hingeschrieben, bzw erwähnt , dass nur der 2x^tx teil stehen bleibt und dann sich die 2 noch küzt. und somit x^tx Hierbei sollte ich besonders auf besonders darauf eingehen, was eigentlich X ist und wie viele Dimensionen es hat (da hab ich leider auch erst mal das falsche gesagt, richtig ist die von der Dimension wo man hin will, also bei meinem Beispiel von 3D Welt auf 2D Landkarte–> 2D)

Ich war tierisch aufgeregt und der Honegger hat mir das auch angesehen und war super nett. Vor mündlichen Prüfungen bei ihm braucht man wirklich keine Angst haben. Mit der Note hätte ich auch nie gerechnet. :)