Du befindest dich hier: FSI Informatik » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » Prüfung PR – Nöth – Februar 2019 (Übersicht)
Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen der Seite angezeigt.
pruefungen:hauptstudium:ls5:pr-2019-02 [27.02.2019 20:37] – angelegt since | pruefungen:hauptstudium:ls5:pr-2019-02 [27.02.2019 20:39] (aktuell) – since | ||
---|---|---|---|
Zeile 5: | Zeile 5: | ||
**F:** Wir haben hier Daten (aufgezeichnet: | **F:** Wir haben hier Daten (aufgezeichnet: | ||
und wollen kranke Menschen und gesunde Menschen klassifizieren mit NN. Wie funktioniert\\ | und wollen kranke Menschen und gesunde Menschen klassifizieren mit NN. Wie funktioniert\\ | ||
- | das denn? | + | das denn?\\ |
**A:** Zuerst Achsen normalisieren, | **A:** Zuerst Achsen normalisieren, | ||
Klasse wählen, zu der der nahest Nachbar gehört.\\ | Klasse wählen, zu der der nahest Nachbar gehört.\\ | ||
- | **F:** Später in der Vorlesung hatten wir ja auch noch Bayes. Was hat der denn damit zu tun? | + | **F:** Später in der Vorlesung hatten wir ja auch noch Bayes. Was hat der denn damit zu tun?\\ |
**A:** Der loss von NN ist höchstens doppelt so groß wie der Bayes loss. | **A:** Der loss von NN ist höchstens doppelt so groß wie der Bayes loss. | ||
- | **F:** Was bedeutet das denn bzw. was ist daran dann ganz gut? | + | **F:** Was bedeutet das denn bzw. was ist daran dann ganz gut?\\ |
**A:** (hab nicht recht verstanden was er will, er hat dann nochmal angesetzt und was von\\ | **A:** (hab nicht recht verstanden was er will, er hat dann nochmal angesetzt und was von\\ | ||
optimal geredet) -> der Bayes ist optimal hinsichtlich des (0,1) -loss, ein optimaler Classifier\\ | optimal geredet) -> der Bayes ist optimal hinsichtlich des (0,1) -loss, ein optimaler Classifier\\ | ||
minimiert den Average loss | minimiert den Average loss | ||
- | **F:** Was macht denn er (0,1)-Loss | + | **F:** Was macht denn er (0,1)-Loss\\ |
**A:** Der zählt die Misklassifikationen | **A:** Der zählt die Misklassifikationen | ||
- | **F:** Wäre das hier in unserem Beispiel sinnvoll? | + | **F:** Wäre das hier in unserem Beispiel sinnvoll?\\ |
**A:** Nein, weil es schlimmer ist einen Kranken als gesund zu klassifizieren als anders herum\\ | **A:** Nein, weil es schlimmer ist einen Kranken als gesund zu klassifizieren als anders herum\\ | ||
und (0,1) bestraft alle gleich stark. | und (0,1) bestraft alle gleich stark. | ||
- | **F:** Hier ist eine Confusion Matrix:\\ | + | **F:** Hier ist eine Confusion Matrix: |
6000 4000 | 6000 4000 | ||
1 99 | 1 99 | ||
- | |||
Wir haben da eine Methode in der Vorlesung gehabt, die dazu passt, ich bin ein Manager im\\ | Wir haben da eine Methode in der Vorlesung gehabt, die dazu passt, ich bin ein Manager im\\ | ||
- | Krankenhaus und sie die IT Fachfrau. Erklären sie mal. | + | Krankenhaus und sie die IT Fachfrau. Erklären sie mal.\\ |
**A:** Kaskade, einfachere Classifier zuerst, z.B. Temperatur wie oben, dann kompliziertere z.B.\\ | **A:** Kaskade, einfachere Classifier zuerst, z.B. Temperatur wie oben, dann kompliziertere z.B.\\ | ||
Bluttest und so in jeder Stufe die gesunden Leute aussortieren und möglichst schnell und\\ | Bluttest und so in jeder Stufe die gesunden Leute aussortieren und möglichst schnell und\\ | ||
effizient Kranke finden | effizient Kranke finden | ||
- | **F:** Was wird denn hier rausgeschmissen? | + | **F:** Was wird denn hier rausgeschmissen? |
**A:** Die 6000+1 gesunden | **A:** Die 6000+1 gesunden | ||
**F:** Wir hatten ja verschiedene Arten von Classifiern, | **F:** Wir hatten ja verschiedene Arten von Classifiern, | ||
- | oder eine Hyperplane finden… was noch? | + | oder eine Hyperplane finden… was noch?\\ |
**A:** Kombination von Classifiern, | **A:** Kombination von Classifiern, | ||
- | **F:** Wie geht das denn? | + | **F:** Wie geht das denn?\\ |
**A:** Kombination von schwachen Classifiern und am Ende gewichtete\\ | **A:** Kombination von schwachen Classifiern und am Ende gewichtete\\ | ||
Mehrheitsentscheidung… | Mehrheitsentscheidung… | ||
- | **F:** Wie ist denn da der Fehler? | + | **F:** Wie ist denn da der Fehler?\\ |
**A:** Formel hingeschrieben, | **A:** Formel hingeschrieben, | ||
geschrieben und erklärt.\\ | geschrieben und erklärt.\\ | ||
Zeile 63: | Zeile 52: | ||
**F:** Gut dann hatte ich ja vorhin schon noch eine Art von Classifiern genannt, mit so einer\\ | **F:** Gut dann hatte ich ja vorhin schon noch eine Art von Classifiern genannt, mit so einer\\ | ||
- | Trennung… | + | Trennung…\\ |
**A:** SVM -> hard margin erklärt, was dabei herauskommt, | **A:** SVM -> hard margin erklärt, was dabei herauskommt, | ||
Optimierungsproblem aufgeschrieben | Optimierungsproblem aufgeschrieben | ||
- | **F:** Was sagen denn die Constraints aus? | + | **F:** Was sagen denn die Constraints aus?\\ |
**A:** Wollen keine Punkte innerhalb der margin, für Klasse 1 soll Wert größer 1 rauskommen\\ | **A:** Wollen keine Punkte innerhalb der margin, für Klasse 1 soll Wert größer 1 rauskommen\\ | ||
etc... | etc... | ||
- | **F:** Wir hatten ja auch noch SVR, was hat das denn damit zu tun bzw. was ist da anders? | + | **F:** Wir hatten ja auch noch SVR, was hat das denn damit zu tun bzw. was ist da anders?\\ |
**A:** aufgezeichnet, | **A:** aufgezeichnet, | ||
Optimierungsproblem aufgeschrieben | Optimierungsproblem aufgeschrieben | ||
**F:** Okay und wie löst man das jetzt? Das mit den Slack Variablen hatten sie ja eben noch gar\\ | **F:** Okay und wie löst man das jetzt? Das mit den Slack Variablen hatten sie ja eben noch gar\\ | ||
- | nicht erwähnt bei SVM, nutzen wir das doch jetzt als Beispiel | + | nicht erwähnt bei SVM, nutzen wir das doch jetzt als Beispiel\\ |
**A:** Lagrangian multiplier, Lagrangian für soft margin aufgeschrieben | **A:** Lagrangian multiplier, Lagrangian für soft margin aufgeschrieben | ||