Du befindest dich hier: FSI Informatik » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » pr-2018-03-13 (Übersicht)
Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen der Seite angezeigt.
Nächste Überarbeitung | Vorherige Überarbeitung | ||
pruefungen:hauptstudium:ls5:pr-2018-03-13 [13.03.2018 14:52] – angelegt jeanorwin | pruefungen:hauptstudium:ls5:pr-2018-03-13 [13.03.2018 14:55] (aktuell) – jeanorwin | ||
---|---|---|---|
Zeile 3: | Zeile 3: | ||
Prüfer: Nöth, Beisitzer: Käppler | Prüfer: Nöth, Beisitzer: Käppler | ||
- | Bayes | + | **Bayes** |
Q: Fangen wir mal mit Bayes an - Entscheidungsregel? | Q: Fangen wir mal mit Bayes an - Entscheidungsregel? | ||
+ | |||
A: Angefangen mit was Bayes Logik vs normale Logik ist, Formel hergeleitet, | A: Angefangen mit was Bayes Logik vs normale Logik ist, Formel hergeleitet, | ||
+ | |||
Q: Was haben wir bei Bayes für einen Loss/ | Q: Was haben wir bei Bayes für einen Loss/ | ||
+ | |||
A: 0-1 loss function, für jede Missklassifiation zahlen wir " | A: 0-1 loss function, für jede Missklassifiation zahlen wir " | ||
+ | |||
Q: (Weiß ich nicht mehr genau, irgendwas in Richtung "was bedeutet das?") | Q: (Weiß ich nicht mehr genau, irgendwas in Richtung "was bedeutet das?") | ||
+ | |||
A: (Wollte glaube ich darauf hinaus, dass wir die Zahl der Missklassifikationen zählen. Dachte das hätte ich mit "wir zahlen 1 bei Fehler" | A: (Wollte glaube ich darauf hinaus, dass wir die Zahl der Missklassifikationen zählen. Dachte das hätte ich mit "wir zahlen 1 bei Fehler" | ||
- | Gauss | + | **Gauss** |
Q: Hatten ja den Nearest Neighbour kennen gelernt. Wie ist der Zusammenhang zw. Bayes und NN Loss? | Q: Hatten ja den Nearest Neighbour kennen gelernt. Wie ist der Zusammenhang zw. Bayes und NN Loss? | ||
+ | |||
A: "In einem der alten Klausurprotokolle stand irgendwas von 2, hatte dazu aber nichts in den Folien oder online gefunden" | A: "In einem der alten Klausurprotokolle stand irgendwas von 2, hatte dazu aber nichts in den Folien oder online gefunden" | ||
+ | |||
Q: " | Q: " | ||
+ | |||
Q: Wir haben jetzt die ganze Zeit von Class Conditional PDFs geredet. Die existieren ja wirklich irgendwie und sind nicht nur so ein Ding. Wie können wir das denn modellieren? | Q: Wir haben jetzt die ganze Zeit von Class Conditional PDFs geredet. Die existieren ja wirklich irgendwie und sind nicht nur so ein Ding. Wie können wir das denn modellieren? | ||
+ | |||
A: (Hatte gehofft wir kommen jetzt endlich weg von den Loss Funktionen): | A: (Hatte gehofft wir kommen jetzt endlich weg von den Loss Funktionen): | ||
+ | |||
Q: Was tun wenn wir viele Daten haben? | Q: Was tun wenn wir viele Daten haben? | ||
+ | |||
A: Dimensionen reduzieren zB PCA oder Daten unabhängig machen, in letzterem Fall Gaussche Matrix mit "zum Beispiel 1ern" in der Diagonale hingemalt | A: Dimensionen reduzieren zB PCA oder Daten unabhängig machen, in letzterem Fall Gaussche Matrix mit "zum Beispiel 1ern" in der Diagonale hingemalt | ||
+ | |||
Q: "Das stimmt jetzt aber nicht!" | Q: "Das stimmt jetzt aber nicht!" | ||
+ | |||
A: 1er in der Diagonale nur Beispiel für eine Zahl, aber muss halt darauf rauslaufen dass wirklich nur in der Diagonale zahlen stehen, weiter ausgeholt über die Abschätzung - statt Pi * Daumen 50^2/2 für Kovar. + 50 für µ brauchen wir jetzt nur noch 100. | A: 1er in der Diagonale nur Beispiel für eine Zahl, aber muss halt darauf rauslaufen dass wirklich nur in der Diagonale zahlen stehen, weiter ausgeholt über die Abschätzung - statt Pi * Daumen 50^2/2 für Kovar. + 50 für µ brauchen wir jetzt nur noch 100. | ||
+ | |||
Q: Zusammenhang zu Nearest Neighbour? | Q: Zusammenhang zu Nearest Neighbour? | ||
+ | |||
A: Bei gleichem Prior und Kovarianzmatrix, | A: Bei gleichem Prior und Kovarianzmatrix, | ||
+ | |||
Q: Und zu was genau nutzen wir da jetzt den Nearest Neighbour | Q: Und zu was genau nutzen wir da jetzt den Nearest Neighbour | ||
+ | |||
A: Zum jeweiligen µ | A: Zum jeweiligen µ | ||
- | Lossfunktionen | + | **Lossfunktionen** |
Ab hier wurde es irgendwie unangenehm. Ganz komische Vermischung der Themen SVM, Adaboost, " | Ab hier wurde es irgendwie unangenehm. Ganz komische Vermischung der Themen SVM, Adaboost, " | ||
Zeile 35: | Zeile 52: | ||
Q: Zwei Gausswolken hingemalt. Können jetzt hier SVM nutzen. Wie sieht die Lossfunktion aus? | Q: Zwei Gausswolken hingemalt. Können jetzt hier SVM nutzen. Wie sieht die Lossfunktion aus? | ||
+ | |||
A: Hinge loss | A: Hinge loss | ||
+ | |||
Q: Ja und wo ist da jetzt der Vorteil/ | Q: Ja und wo ist da jetzt der Vorteil/ | ||
+ | |||
A: ??? | A: ??? | ||
+ | |||
Q: (Wollte letztlich glaube ich darauf raus dass starke Ausreisser bei SVMs die Boundary in die jweilige Richtung ziehen (aber bin mir nicht wirklich sicher). Hat dann noch gezeigt wie die Samples jeweils projiziert werden) | Q: (Wollte letztlich glaube ich darauf raus dass starke Ausreisser bei SVMs die Boundary in die jweilige Richtung ziehen (aber bin mir nicht wirklich sicher). Hat dann noch gezeigt wie die Samples jeweils projiziert werden) | ||
+ | |||
Q: Wie ist denn der Fehler bei Adaboost definiert? | Q: Wie ist denn der Fehler bei Adaboost definiert? | ||
+ | |||
A: Zahl der falsch klassifzierten / Zahl aller Samples | A: Zahl der falsch klassifzierten / Zahl aller Samples | ||
+ | |||
Q: Nein das stimmt nicht! | Q: Nein das stimmt nicht! | ||
+ | |||
A: (???) (Hatte das so in meiner Zusammenfassung, | A: (???) (Hatte das so in meiner Zusammenfassung, | ||
+ | |||
Q: Ja, aber dann wäre es ja gleich mit 0-1 | Q: Ja, aber dann wäre es ja gleich mit 0-1 | ||
+ | |||
A: (???) | A: (???) | ||
+ | |||
Q: Schreiben Sie mal die Formel für den Gesamtclassifier hin. | Q: Schreiben Sie mal die Formel für den Gesamtclassifier hin. | ||
+ | |||
A: Hingeschrieben | A: Hingeschrieben | ||
+ | |||
Q: Der Fehler wird ja noch gewichtet | Q: Der Fehler wird ja noch gewichtet | ||
+ | |||
A: (Mittlerweile sehr verwirrt) | A: (Mittlerweile sehr verwirrt) | ||
+ | |||
Q: Malen Sie mal 0-1 und Hinge Loss hin. | Q: Malen Sie mal 0-1 und Hinge Loss hin. | ||
+ | |||
A: Hinge loss hingemalt, bei 0-1 wg. davor noch sehr durcheinander gewesen, dann aber letztlich auch hin gemalt. | A: Hinge loss hingemalt, bei 0-1 wg. davor noch sehr durcheinander gewesen, dann aber letztlich auch hin gemalt. | ||
+ | |||
Q: Naja, dann gehen Sie doch mal raus. | Q: Naja, dann gehen Sie doch mal raus. | ||
(Vereinzelt vermutlich einige Punkte durcheinander geworfen) | (Vereinzelt vermutlich einige Punkte durcheinander geworfen) | ||
- | Zusammenfassend: | + | **Zusammenfassend: |
- | | + | - Atmosphäre insgesamt ok |
- | Habe mir leider ungünstigerweise keine supergroßen Gedanken über die einzelnen Lossfunktionen gemacht bzw. insbesondere deren Verstrickung untereinander und wieso man jetzt wann welche verwendet. | + | - Habe mir leider ungünstigerweise keine supergroßen Gedanken über die einzelnen Lossfunktionen gemacht bzw. insbesondere deren Verstrickung untereinander und wieso man jetzt wann welche verwendet. |
- | Dementsprechend ist es ab dem Teil ziemlich schief gelaufen (Schade Schokolade) | + | - Dementsprechend ist es ab dem Teil ziemlich schief gelaufen (Schade Schokolade) |
- | Beim Loss-Funktionsteil hat er sehr sehr viel selbst geredet. Insgesamt hatte ich das Gefühl, dass er da eher 10 Minuten Vortrag gehalten hat als mich noch konkret was zu fragen (war da eh schon " | + | - Beim Loss-Funktionsteil hat er sehr sehr viel selbst geredet. Insgesamt hatte ich das Gefühl, dass er da eher 10 Minuten Vortrag gehalten hat als mich noch konkret was zu fragen (war da eh schon " |
- | Benotung für Leistung fair (1,7), persönliches Ziel leider verfehlt :-) | + | - Benotung für Leistung fair (1,7), persönliches Ziel leider verfehlt :-) |
- | Vorbereitung: | + | **Vorbereitung: |
- | | + | - ca. 10 Tage, Folien komplett zusammengefasst, |
- | das obige war schon sehr knackig, gerade die letzten 3-4 Tage bestanden nur noch aus PR und hatte letztlich nur noch einen Tag Zeit, um die Zusammenfassung " | + | - das obige war schon sehr knackig, gerade die letzten 3-4 Tage bestanden nur noch aus PR und hatte letztlich nur noch einen Tag Zeit, um die Zusammenfassung " |
- | Letztlich nur Formeln/ | + | - Letztlich nur Formeln/ |
- | Zusätzlich zu den Formeln noch grob mathematischen Lösungsweg, | + | - Zusätzlich zu den Formeln noch grob mathematischen Lösungsweg, |
- | Zusammenhang Gauss, kNN, Bayes sehr wichtig, steht leider sehr verteilt in der VL/nur online | + | - Zusammenhang Gauss, kNN, Bayes sehr wichtig, steht leider sehr verteilt in der VL/nur online |
- | Taktik: | + | **Taktik:** |
- | | + | - Würde zu jedem Thema immer versuchen so viel wie möglich zu erzählen. Glaube durch den Kurzvortrag am Ende (von dem ich ihm ja durchaus auch einiges hätte erzählen können :-)) sind da einige " |
- | Auf der anderen Seite steht in anderen Protokollen aber auch wieder, dass man durch "ihn reden lassen" | + | - Auf der anderen Seite steht in anderen Protokollen aber auch wieder, dass man durch "ihn reden lassen" |
- | Tipps: | + | **Tipps:** |
Gutes SVM Video: https:// | Gutes SVM Video: https:// |