Du befindest dich hier: FSI Informatik » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » pa_september_14   (Übersicht)

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen der Seite angezeigt.

Link zu der Vergleichsansicht

Beide Seiten, vorherige ÜberarbeitungVorherige Überarbeitung
Nächste Überarbeitung
Vorherige Überarbeitung
pruefungen:hauptstudium:ls5:pa_september_14 [01.10.2014 08:02] lxexapruefungen:hauptstudium:ls5:pa_september_14 [01.10.2014 09:35] (aktuell) – Alte - von lxexa überschriebene Version - wiederhergestellt iridium
Zeile 1: Zeile 1:
 Prüfer: Prof. Hornegger Prüfer: Prof. Hornegger
  
-Kann nur bestätigen: sehr faire Prüfung, in entspannter Atmosphäre.+Alles in allem eine sehr faire Prüfung, in entspannter Atmosphäre.
  
 **Überblick** **Überblick**
  
-„Wolke“ malen, ohne Objective Functions  +„Wolke“ malen, ohne Objective Functions - wollte noch kurz erklären was bei jedem Themengebiet wichtig ist, hat er aber dankend abgelehnt  
-Hierbei hat er schon bei Mean Shift gesagt: "Das ist ein cooler Algorithmusoder?" oder sowas in der Art und ich hab es sehr stark bestätigt. Das war dann auch mein erstes Thema :) + 
-Bei HMM hab ich erst HHM gesagt und daraus hat er dann Honegger Models gemacht ;) Daher war dann schon das zweite Themengebiet klar...+**Hard & Soft Clustering** 
 + 
 +Was macht man damit? Bild malen 
 + 
 +Obejctive Function ->Ableitung nach mu  
 + 
 +Welche Probleme ergeben sich beim optimieren? c_ij diskret d kontinuierlich 
 + 
 +Wie funktioniert k-Means? Updateformel erklären/zeigen 
 + 
 +Was ändert sich bei Soft Clustering? Objective Function mit Nebenbedingung hinschreiben, Lagrange Multiplier Methode erwähnen, c_ij jetzt probabilistisch
  
 **Mean Shift** **Mean Shift**
  
-Erst mal ein Bilchen gemalt (das aus den Folien) und daran den Algorithmus erklärt, dann die 2 Schritte hingeschrieben. +Was tut man damit → PDF optimierenMaxima finden
-Wie leitet man das her? Parzen window Formel hingeschrieben und gesagt, dass man den gradienten bestimmt. Dann gleich 0 setzten. +
-Wollte er leider nicht vorgerechnet bekommen. +
-Dann hab ich noch gesagt, dass es viellseitig anwendbar ist. Bsp: +
-Clustering mit Mean Shift (Zeichnung mit Attraktionsgebiet machen) +
-und dann hab ich leider noch gesagt, dass es auch noch im Bereich der Computer vision eingesetzt werden kann. Daraufhin er wo denn da? +
-Meinte ich Bildsmoothing mit Kantenerhaltung. (auch Thema der hochgeladenen Folien) +
-leider konnte ich ihm das dann nicht weiter erklären. Hat am Ende aber nur 5 fehlende Punkte ausgemacht. ;)+
  
-**HMM** +Mean-Shift-Vector herleiten und Algorithmus erklären 
-Bild hingemalt, erklärt was pi, a, und so ist. + 
-dann die 3 Grundprobleme hingeschrieben (dabei leider den Optimierungskerl mal umbenannt ;)) Dann auf Marginalisierung genauer eingeganen. +Clustering mit Mean Shift (Zeichnung mit Attraktionsgebiet machen)
-Hierfür die gesamte Formel hingeschrieben und umgeschrieben mit den Summen innen und die Komplezitäten erklärt. Von O(m^nzu O(n+m^2) +
-Hier dann auf das zweite Problem eingegangen und aus allen Summen eine maximierung gemacht.+
  
 **Manifold Learning** **Manifold Learning**
  
-Erklären wie MDS funktioniert: Eigentlich hat er in der Einleitung der Frage schon alles erzählt von hochdimensionale Features will man auf eine niedriger dimensionalen Raum bringen und man hat nur die Distanzen der Punkte gegeben, jetzt möchte man aber die Punkte an sich haben... +Erklären wie MDS funktioniert: 
--1/2 CD^2C hinschreiben, erwähnen, dass C eigentlich nur den mean abzieht und zeigen, dass sich am Ende B = X^T*X ergibt + -1/2 CD^2C hinschreiben, erwähnen, dass C eigentlich nur den mean abzieht und zeigen, dass sich am Ende B = X^T*X ergibt -> SVD 
-Dann hab ich die komplette Herleitung hingeschriebenbzw erwähnt , dass nur der 2x^tx teil stehen bleibt und dann sich die 2 noch küzt. + 
-und somit x^tx +**EM Algorithmus** 
-Hierbei sollte ich besonders auf besonders darauf eingehen, was eigentlich X ist und wie viele Dimensionen es hat (da hab ich leider auch erst mal das falsche gesagt, richtig ist die von der Dimension wo man hin will, also bei meinem Beispiel von 3D Welt auf 2D Landkarte--> 2D)+ 
 +Prof: "Sojetzt erklären Sie bitte unserer Beisitzerin noch was der EM Algorithmus macht" 
 + 
 +Prüf: "Ich bin sicher, dass sie das schon weiß" 
 + 
 +Prof: "Gut - dann erklären Sie ihr mal das Hammersley-Clifford-Theorem" 
 + 
 +(Schweres Eigentor... ;-) 
 + 
  
-Ich war tierisch aufgeregt und der Honegger hat mir das auch angesehen und war super nett. Vor mündlichen Prüfungen bei ihm braucht man wirklich keine Angst haben. Mit der Note hätte ich auch nie gerechnet. :)+**MRF/GRF**
  
 +Musste es nicht herleiten, sondern nur erklären was gemacht wird (Formel für p(x) hinschreiben, sagen, dass es sich bei H(x) eben um eine Summe über Cliquen handelt)
 +Die letzte Frage war dann noch über die Eigenschaften des MRF und warum diese gelten müssen.