Du befindest dich hier: FSI Informatik » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » Prüfung PR – Nöth – Februar 2019   (Übersicht)

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen der Seite angezeigt.

Link zu der Vergleichsansicht

pruefungen:hauptstudium:ls5:pr-2019-02 [27.02.2019 20:37] – angelegt sincepruefungen:hauptstudium:ls5:pr-2019-02 [27.02.2019 20:39] (aktuell) since
Zeile 5: Zeile 5:
 **F:** Wir haben hier Daten (aufgezeichnet: Puls Range 30-230 und Temperatur Range 37-40)\\  **F:** Wir haben hier Daten (aufgezeichnet: Puls Range 30-230 und Temperatur Range 37-40)\\ 
 und wollen kranke Menschen und gesunde Menschen klassifizieren mit NN. Wie funktioniert\\  und wollen kranke Menschen und gesunde Menschen klassifizieren mit NN. Wie funktioniert\\ 
-das denn? +das denn?\\ 
 **A:** Zuerst Achsen normalisieren, dann Abstand zu allen anderen Daten berechnen und die\\  **A:** Zuerst Achsen normalisieren, dann Abstand zu allen anderen Daten berechnen und die\\ 
 Klasse wählen, zu der der nahest Nachbar gehört.\\  Klasse wählen, zu der der nahest Nachbar gehört.\\ 
  
-**F:** Später in der Vorlesung hatten wir ja auch noch Bayes. Was hat der denn damit zu tun? +**F:** Später in der Vorlesung hatten wir ja auch noch Bayes. Was hat der denn damit zu tun?\\ 
 **A:** Der loss von NN ist höchstens doppelt so groß wie der Bayes loss. **A:** Der loss von NN ist höchstens doppelt so groß wie der Bayes loss.
  
-**F:** Was bedeutet das denn bzw. was ist daran dann ganz gut? +**F:** Was bedeutet das denn bzw. was ist daran dann ganz gut?\\ 
 **A:** (hab nicht recht verstanden was er will, er hat dann nochmal angesetzt und was von\\  **A:** (hab nicht recht verstanden was er will, er hat dann nochmal angesetzt und was von\\ 
 optimal geredet) -> der Bayes ist optimal hinsichtlich des (0,1) -loss, ein optimaler Classifier\\  optimal geredet) -> der Bayes ist optimal hinsichtlich des (0,1) -loss, ein optimaler Classifier\\ 
 minimiert den Average loss minimiert den Average loss
  
-**F:** Was macht denn er (0,1)-Loss +**F:** Was macht denn er (0,1)-Loss\\ 
 **A:** Der zählt die Misklassifikationen **A:** Der zählt die Misklassifikationen
  
-**F:** Wäre das hier in unserem Beispiel sinnvoll? +**F:** Wäre das hier in unserem Beispiel sinnvoll?\\ 
 **A:** Nein, weil es schlimmer ist einen Kranken als gesund zu klassifizieren als anders herum\\  **A:** Nein, weil es schlimmer ist einen Kranken als gesund zu klassifizieren als anders herum\\ 
 und (0,1) bestraft alle gleich stark. und (0,1) bestraft alle gleich stark.
  
-**F:** Hier ist eine Confusion Matrix:\\ +**F:** Hier ist eine Confusion Matrix:
   6000 4000   6000 4000
   1    99   1    99
- 
 Wir haben da eine Methode in der Vorlesung gehabt, die dazu passt, ich bin ein Manager im\\  Wir haben da eine Methode in der Vorlesung gehabt, die dazu passt, ich bin ein Manager im\\ 
-Krankenhaus und sie die IT Fachfrau. Erklären sie mal. +Krankenhaus und sie die IT Fachfrau. Erklären sie mal.\\ 
 **A:** Kaskade, einfachere Classifier zuerst, z.B. Temperatur wie oben, dann kompliziertere z.B.\\  **A:** Kaskade, einfachere Classifier zuerst, z.B. Temperatur wie oben, dann kompliziertere z.B.\\ 
 Bluttest und so in jeder Stufe die gesunden Leute aussortieren und möglichst schnell und\\  Bluttest und so in jeder Stufe die gesunden Leute aussortieren und möglichst schnell und\\ 
 effizient Kranke finden effizient Kranke finden
  
-**F:** Was wird denn hier rausgeschmissen? +**F:** Was wird denn hier rausgeschmissen?\\ 
 **A:** Die 6000+1 gesunden **A:** Die 6000+1 gesunden
  
 **F:** Wir hatten ja verschiedene Arten von Classifiern, z.B. welche die die Daten modellieren\\  **F:** Wir hatten ja verschiedene Arten von Classifiern, z.B. welche die die Daten modellieren\\ 
-oder eine Hyperplane finden… was noch? +oder eine Hyperplane finden… was noch?\\ 
 **A:** Kombination von Classifiern, AdaBoost **A:** Kombination von Classifiern, AdaBoost
  
-**F:** Wie geht das denn? +**F:** Wie geht das denn?\\ 
 **A:** Kombination von schwachen Classifiern und am Ende gewichtete\\  **A:** Kombination von schwachen Classifiern und am Ende gewichtete\\ 
 Mehrheitsentscheidung… Mehrheitsentscheidung…
  
-**F:** Wie ist denn da der Fehler? +**F:** Wie ist denn da der Fehler?\\ 
 **A:** Formel hingeschrieben, erklärt, darauf aufbauend alle weiteren Formeln für die Weights\\  **A:** Formel hingeschrieben, erklärt, darauf aufbauend alle weiteren Formeln für die Weights\\ 
 geschrieben und erklärt.\\  geschrieben und erklärt.\\ 
Zeile 63: Zeile 52:
  
 **F:** Gut dann hatte ich ja vorhin schon noch eine Art von Classifiern genannt, mit so einer\\  **F:** Gut dann hatte ich ja vorhin schon noch eine Art von Classifiern genannt, mit so einer\\ 
-Trennung… +Trennung…\\ 
 **A:** SVM -> hard margin erklärt, was dabei herauskommt, Zeichnung gemacht wo was ist,\\  **A:** SVM -> hard margin erklärt, was dabei herauskommt, Zeichnung gemacht wo was ist,\\ 
 Optimierungsproblem aufgeschrieben Optimierungsproblem aufgeschrieben
  
-**F:** Was sagen denn die Constraints aus? +**F:** Was sagen denn die Constraints aus?\\ 
 **A:** Wollen keine Punkte innerhalb der margin, für Klasse 1 soll Wert größer 1 rauskommen\\  **A:** Wollen keine Punkte innerhalb der margin, für Klasse 1 soll Wert größer 1 rauskommen\\ 
 etc... etc...
  
-**F:** Wir hatten ja auch noch SVR, was hat das denn damit zu tun bzw. was ist da anders? +**F:** Wir hatten ja auch noch SVR, was hat das denn damit zu tun bzw. was ist da anders?\\ 
 **A:** aufgezeichnet, erklärt, dass Punkte innerhalb der margin sollen, Slack variablen,\\  **A:** aufgezeichnet, erklärt, dass Punkte innerhalb der margin sollen, Slack variablen,\\ 
 Optimierungsproblem aufgeschrieben Optimierungsproblem aufgeschrieben
  
 **F:** Okay und wie löst man das jetzt? Das mit den Slack Variablen hatten sie ja eben noch gar\\  **F:** Okay und wie löst man das jetzt? Das mit den Slack Variablen hatten sie ja eben noch gar\\ 
-nicht erwähnt bei SVM, nutzen wir das doch jetzt als Beispiel +nicht erwähnt bei SVM, nutzen wir das doch jetzt als Beispiel\\ 
 **A:** Lagrangian multiplier, Lagrangian für soft margin aufgeschrieben **A:** Lagrangian multiplier, Lagrangian für soft margin aufgeschrieben