Du befindest dich hier: FSI Informatik » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » F: Wie funktioniert NN?   (Übersicht)

no way to compare when less than two revisions

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen der Seite angezeigt.


pruefungen:hauptstudium:ls5:pr-2019-04-09 [09.04.2019 08:18] (aktuell) – angelegt ticshorty
Zeile 1: Zeile 1:
 +Fach: Pattern Recognition WS1819
  
 +Prüfer: Nöth
 +
 +==F: Wie funktioniert NN?==
 +A: Distanz zu allen Punkten berechnen - nächsten Nachbarn nehmen als Referenz
 +
 +==F: Was muss man machen bevor man die Distanzen zu allen Punkten berechnet?==
 +A: Wertebereiche normalisieren
 +
 +==F: Wie haben wir das in der (Programmier)Übung gemacht um die Performance zu verbessern?==
 +A: Matrixmultiplikationen statt for- Schleifen
 +
 +==F: Wie haben wir das Speicherproblem bei großen Matrizen bei NN gelöst?==
 +A: Batch-weise Entfernungen berechnen
 +
 +==F: Wie ist der Loss bei NN?==
 +A: 0-1 Loss, da nur die Missklassifikationen gezählt werden
 +
 +==F: Wie "performt" NN im Vergleich zum Bayesian Classifier?==
 +A: NN höchstens 2x so schlecht wie Bayesian
 +
 +==F: *Fingerzeig auf Papier* Wie funktioniert denn der Bayesian?==
 +A: y* = argmax_y ... umgestellt nach bayes und logarithmiert hingeschrieben und erklärt
 +
 +==F: Wie funktioniert Maximum Likelihood?==
 +A: Formel hingeschrieben und erläutert
 +
 +==F: Welche Annahme treffen wir, damit wir ML verwenden können?==
 +A: Die Punkte / Featurevektoren sind unabhängig von einander
 +
 +==F: *zeichnet zwei nicht-gaussian Verteilungen hin* wie können wir damit umgehen?==
 +A: (nach einiger Zeit im Suchraum möglicher Antworten von Transformation bis Regression, die alle nicht das waren, was er meinte) man nimmt für eine Verteilung ein GMM an (Die nicht-Gaussian ist eine GMM)
 +
 +==F: Erklären Sie mal wie GMM funktioniert; welche Formeln spielen da wo mit rein?==
 +A: Intuition hinter GMM und E-M Algorithmus erklärt und EM-Schritte im Detail erklärt, jeweils mit Formeln
 +
 +==F: Anderes Thema *zeichnet zwei getrennte Kreise und zwei überlappende* SVM in der idealen und in der echten Welt wie funktioniert das?==
 +A: Hard Margin und Soft Margin am Bild intuitiv erklärt. Herleitung im Stile vom Udacity Tutorial / Erklärung (https://www.youtube.com/watch?v=-ePtSxkmD4g - danke anderer Braindump! :-))
 +(er lässt einen recht frei erklären und Feedback war, dass Intution, dann Formeln mit Erklärung ein sehr gutes Vorgehen darstellt).
 +Herleitung bis zum Lagrangian.
 +
 +==F: Wie ist im Unterschied dazu SVR?==
 +A: Problem wieder von Anfang aufgezeichnet, Inequality Constraints aufgezeichnet, die sich wegen fehlender Klassen nicht mehr zusammenfassen lassen. Deshalb Lagrangian Multipliers und Slackvariablen in doppelter Ausführung.
 +
 +
 +Vorbereitung im 3er Team in den letzten 7-10 Tagen. Schwerpunkte der Vorbereitung: Bayesian Classifier, Loss Functions, SVM/SVR (!!), PCA, LDA, EM/GMM, AdaBoost
 +
 +Aus meiner Sicht für dieses Fach extrem wichtig nicht nur alleine zu lernen, da man sich gegenseitig aus falschen Sichtweisen hilft. Sehr hilfreich ist, wenn ihr für die immer wieder auftretenden Themen quasi Minireferate (intuitiv und mit Formeln) halten könnt (dann habt ihr auch ein gutes Gefühl dafür, ob ihr den Kern erfasst habt).
 +
 +Note 1.0