Du befindest dich hier: FSI Informatik » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » pr-2020-02-11
F: Hier ist ein Graph mit Patientendaten (Temperatur und Puls). Wir wollen mit nearest-neighbor klassifizieren. Wie geht das?
A: Achsen normalisieren. Abstand zu jedem anderen Sample berechnen. Bei NN ists die Klasse vom nachsten. Bei kNN die k naechsten Zahlen welche Klasse oefter vorkommt.
F: Welche Klassifier gibt es noch?
A: Bayesian classifier.
F: Wie funktioniert der?
A: Bayesian Regel hingeschrieben. Erklaert dass man p(x) ignorieren kann.
Er wollte dann noch auf den log hinaus.
F: Der kNN ist ja sehr langsam (dafuer schnell implementiert). Woran liegt das denn?
A: Parameter wachsen sehr schnell an mit den Dimensionen
F: Wie viele braucht man denn?
A: #d fur den mean und etwas uber #d/2 fur die covariance.
F: und wie kann man das besser machen?
A: Man kann mutual independence annehmen. → covariance wird diagonal.
F: Wenn das ergebnis davon zu schlecht ist, was kann man da noch tun?
A: Hab erst first-order dependency erklaert
F: Okay, wann ist das denn am meisten sinnvoll?
A: Hab etwas ueberlegen muessen. Wenn man ein Bild als featurevektor nimmt, weil dann benachbarte Pixel korrelieren aber alle anderen nicht.
F: Ja konnte funktionieren. Haben Sie auch ein eindimensionales Beispiel?
A: Mir ist da keines eingefallen. Er hat dann Tonaufnahmen gesagt (zeitliche Abfolgen)
F: Zurueck zum Bayes. Wir wissen jetzt, dass p(y|x) nicht gauss-verteilt ist, aber wir wollen unbedingt noch diese Formel verwenden. Was kann man da machen?
A: War erst etwas verwirrt und habe mit Transformationen angefangen (LDA).
Er hat mich dann gestoppt und hat eine nicht-gaussische Verteilung aufgemalt.
F: Also man kann ja eine beliebeige verteilung annaehern durch…
A: Mehrere Gaussians. GMM
F: Ok. Wie funktioniert dass denn? Was braucht man dazu
A: Man braucht pro Gaussverteilung einen mean-vektor, eine covariance-Matrix und ein Gewicht. Formel fuer p(x) aufgeschrieben. Die einzelnen Komponenten erklaert
F: Und wie funktioniert das dann? Woher kommen die Parameter?
A: Die muss man abschaetzen. z.B. durch den EM-Algorithmus
Zuerst muss man Parameter initialisieren. Kann man zufaellig machen oder noch besser mit k-means. Geht aber irgendwie
F: Naja nicht immer beliebig. Eine Initialisierung darf man nicht machen..
A: Die verschiedenen Gausse duerfen natuerlich nicht gleich sein.
F: Stimmt.
Ich wollte dann weiter machen. E-Schritt macht man eine Klassifizierung und dann im M-Schritt veraendert man seinen Parameter.
F: Moment, was genau macht man denn im E-Schritt? Was berechnet man denn da?
A: Er wollte dann auf die p_ik hinaus. Hab also mit etwas nachhaken die Formel hingeschrieben.
F: Ok, und wenn man die p_ik hat, wie veraendern sich dann im M-Schritt die Parameter? Schreiben sie mal die Formeln fur die neuen Gewichte und Mean-vektoren hin. (Covarianz wollte er nicht)
A: Bin dann etwas ueber die Formel gestolpert. er hat dann nochmal im Bild einen mean eingezeichnet und die Verbindungen zu den Samples. Bin dann auf die Formel fuer die Gewichte gekommen.
Aehnlich liefs mit dem Mean-vektor. Er hat da ziemlich drauf rumgeritten bis ich die beiden Formeln richtig hatte.
F: Ok gut. Das k lingt ja ganz praktisch, was ist denn der Nachteil von GMM?
A: Hier war ich ziemlich blank. Hab dann gesagt dass er langsam konvergiert
F: Ja stimmt, aber ich hab Zeit… Er hat dann noch ein paar mal nachgefragt, unter anderem was denn das Abbruchkriterium sei.
A: Der iteriert so lange, bis sich die Log-likelyhood nicht mehr andert.
Worauf er dann eigentlich hinaus wollte weis ich nicht, die Zeit war dann vorbei
Fazit: Stimmung ist nicht angespannt, aber auch nicht wirklich entspannt. Nach den Einstiegsfragen versucht er durch komische Ueberleitungen auf ein bestimmtes Thema zu kommen (bei mir GMM) und da hackt er zu lange und una ngenehm genau drauf rum. Hab dann noch gesagt dass ich gern noch was zu SVM oder LDA gesagt hatte aber das wir ihm egal. Der Protokollfuehrer hat nichts gesagt.
Note: 2,0