Du befindest dich hier: FSI Informatik » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » Prüfung PR – Nöth – Februar 2019   (Übersicht)

Prüfung PR – Nöth – Februar 2019

Einstieg gab es eigentlich kaum, ging gleich los :D

F: Wir haben hier Daten (aufgezeichnet: Puls Range 30-230 und Temperatur Range 37-40)
und wollen kranke Menschen und gesunde Menschen klassifizieren mit NN. Wie funktioniert
das denn?
A: Zuerst Achsen normalisieren, dann Abstand zu allen anderen Daten berechnen und die
Klasse wählen, zu der der nahest Nachbar gehört.

F: Später in der Vorlesung hatten wir ja auch noch Bayes. Was hat der denn damit zu tun?
A: Der loss von NN ist höchstens doppelt so groß wie der Bayes loss.

F: Was bedeutet das denn bzw. was ist daran dann ganz gut?
A: (hab nicht recht verstanden was er will, er hat dann nochmal angesetzt und was von
optimal geredet) → der Bayes ist optimal hinsichtlich des (0,1) -loss, ein optimaler Classifier
minimiert den Average loss

F: Was macht denn er (0,1)-Loss
A: Der zählt die Misklassifikationen

F: Wäre das hier in unserem Beispiel sinnvoll?
A: Nein, weil es schlimmer ist einen Kranken als gesund zu klassifizieren als anders herum
und (0,1) bestraft alle gleich stark.

F: Hier ist eine Confusion Matrix:

6000 4000
1    99

Wir haben da eine Methode in der Vorlesung gehabt, die dazu passt, ich bin ein Manager im
Krankenhaus und sie die IT Fachfrau. Erklären sie mal.
A: Kaskade, einfachere Classifier zuerst, z.B. Temperatur wie oben, dann kompliziertere z.B.
Bluttest und so in jeder Stufe die gesunden Leute aussortieren und möglichst schnell und
effizient Kranke finden

F: Was wird denn hier rausgeschmissen?
A: Die 6000+1 gesunden

F: Wir hatten ja verschiedene Arten von Classifiern, z.B. welche die die Daten modellieren
oder eine Hyperplane finden… was noch?
A: Kombination von Classifiern, AdaBoost

F: Wie geht das denn?
A: Kombination von schwachen Classifiern und am Ende gewichtete
Mehrheitsentscheidung…

F: Wie ist denn da der Fehler?
A: Formel hingeschrieben, erklärt, darauf aufbauend alle weiteren Formeln für die Weights
geschrieben und erklärt.
Hier hat er dann ziemlich drauf herumgeritten, was passiert, wenn man falsch klassifiziert,
welcher Wert dann wo herauskommt und was passiert, wenn man „würfelt“ etc., also die
Formeln sollte man gut können und auch verstehen wie sie zusammenhängen.

F: Gut dann hatte ich ja vorhin schon noch eine Art von Classifiern genannt, mit so einer
Trennung…
A: SVM → hard margin erklärt, was dabei herauskommt, Zeichnung gemacht wo was ist,
Optimierungsproblem aufgeschrieben

F: Was sagen denn die Constraints aus?
A: Wollen keine Punkte innerhalb der margin, für Klasse 1 soll Wert größer 1 rauskommen
etc…

F: Wir hatten ja auch noch SVR, was hat das denn damit zu tun bzw. was ist da anders?
A: aufgezeichnet, erklärt, dass Punkte innerhalb der margin sollen, Slack variablen,
Optimierungsproblem aufgeschrieben

F: Okay und wie löst man das jetzt? Das mit den Slack Variablen hatten sie ja eben noch gar
nicht erwähnt bei SVM, nutzen wir das doch jetzt als Beispiel
A: Lagrangian multiplier, Lagrangian für soft margin aufgeschrieben

F: Dann kam er mit complementary slackness an und hat da total drauf herumgehackt, was
passiert, wenn Lambda Null ist und was dann für f herauskommt etc. und hat sich da auch
etwas verhaspelt, ich war dann ziemlich verwirrt und wusste nicht, was er will. Hat er dann
aber auch gemerkt. Hab dann immer zugehört und versucht zu sagen was er will und
bisschen support vectors etc. erklärt. Dann war er irgendwann selber verwirrt von sich und
meinte ich soll doch mal raus gehen.

Fazit: Er bewertet sehr nett, will einem auch nichts Böses aber kann einen teilweise etwas
verwirren mit den Fragen bzw. wie er es ausdrückt. Auf jeden Fall lag der Fokus auf SVM und
AdaBoost und da will er auch ziemlich genau wissen wie die Formeln zusammenhängen und
was da was beeinflusst.
Habe eine Zusammenfassung aus den Folien geschrieben und war in ca. 50% der
Vorlesungen. Protokolle von alten Klausuren anschauen bringt auf jeden Fall viel, weil er
immer sehr ähnliche Fragen stellt bzw. man einen Eindruck bekommt worauf er Wert legt.
Richtig auswendig gelernt bzw. mich intensiver beschäftigt habe ich dann drei Tage vor der
Klausur, aber die allgemeinen Prinzipen sollte man schon früher durchblickt haben. Hat ganz
gut geklappt so für mich :D

Note: 1.0