Sie befinden sich hier: Termine » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » Allgemein   (Übersicht)

Allgemein

Prüfung wurde im Büro von Prof. Maier abgelegt, mit (englischem) Beisitz. Die Prüfung orientierte sich an der gesamten Vorlesung mit sämtlichen Inhalten. Die Fragen sind willkürlich und können zu jedem Thema gestellt werden.

Fragen

Prof. Maier: Geben Sie doch bitte einen Überblick über die Themen der Vorlesung.

Mindmap gemalt mit allen Themen.

Prof. Maier: Zu Anfangs gab es ja das Rosenblatt Perzeptron. Was konnte das denn?

Perzeptron erklärt, mehrere Inputs, ein Output, weil Sign function.

Prof. Maier: Und was war das Problem?

XOR nicht lösbar.

Prof. Maier: Was hat man dann gemacht?

MLP → Universal Function Approximator und Universal Approximation Theorem

Prof. Maier: Okay, welche Aktivierungsfunktionen gibt es denn?

Bspw. Sign.

Prof. Maier: Was ist denn bei der das Problem?

Es gibt keine wirklichen Gradienten, außer man landet genau in 0, dann ist die Steigung 1, ansonsten immer 0 → schlecht für Training.

Prof. Maier: Andere Aktivierungsfunktionen?

Sigmoid, Tanh, ReLU.

Prof. Maier: Vor- und Nachteile? Wieso ist ReLU besser?

ReLU ist robuster, weil Sie nicht so saturiert, wie bspw. Sigmoid/Tanh.

Prof. Maier: Wie können wir denn feststellen, ob ein Netzwerk gut performt oder nicht?

Loss

Prof. Maier: Wie haben wir denn den Loss immer bestimmt?

Cross-Entropy und Maximum Log Likelihood erklärt, sowie wie das zustande kommt.

Prof. Maier: Und was kann sonst noch so passieren, zB bei ReLU

Dying ReLUs, also Vanishing Gradients (/repektive Exploding)

Prof. Maier: Wie kann man das denn überwachen?

3. Datenset, das nur zur Überwachung dient und so etwas wie Gradienten überwacht, ob die passen usw.

Prof. Maier: Wie kann man das noch überprüfen? Auch bspw ob ein Netzwerk overfitted?

Anhand des Losses.

Prof. Maier: Wie sehen die Kurven aus?

Hingemalt.

Prof. Maier: Wie funktionieren denn Inception Blöcke?

GoogleNet mit seinen Blöcken erklärt. Auxilary Classifier erwähnt und erklärt.

Prof. Maier: Wie funktionieren Residuals?

ResNet mit seinen Skip Connections erklärt.

Prof. Maier: Wieso ist das denn so wie Ensembling?

Ensembling erst erklärt und dann anhand einer simplen Grafik gezeigt, dass das Netzwerk aus mehreren Möglichkeiten wählt und sogesehen mehrere Verbindungen gleichzeitig erlernt, aber das ganze zusammengesetzt wird.

Prof. Maier: Unsupervised Learning. Wie funktionieren denn GANs?

Keine Ahnung… Vollkommen vergessen.

Prof. Maier: Wie funktionieren denn Autoencoder?

Encoding, Decoding, Informationskompression, Repräsentation erlernen.

Prof. Maier: Was lernen die denn, wenn man genau die gleiche Menge an Neuronen hat?

Einheitsrepräsentation.

Prof. Maier: Bitte mal doch mal ein Recurrent Netzwerk meiner Wahl hin.

Gefragt, ob er danach noch eine Frage dazu stellt. Er hat gelacht und gemeint „Nein, das reicht dann schon.“

Also LSTM hingemalt und die Gates erklärt.
Prof. Maier: Das war's auch schon! :)

Vorbereitung

Alle Vorlesungsfolien sowie Videos durchgegangen und eine Zusammenfassung geschrieben. 2 Altklausuren bearbeitet. Die Frage zur Mindmap, Perzeptron und UTA auswendig gelernt.

Prüfung Allgemein & Bewertung

Die Prüfung allgemein war sehr angenehm, keine arg fiesen Fragen oder ähnliches. Prof. Maier hat auch gerne geholfen, wenn man mal nicht sofort wusste oder gesagt hat, dass man jetzt ein bisschen auf dem Schlauch steht. Das hat sich dann auch nicht sofort negativ ausgewirkt. Zur Bewertung ist zu sagen, dass sie absolut fair war. Es wurde viel Wissen verlangt und teilweise auch recht spezifisch, aber durchaus alles machbar. Die Note 2,0 war gerechtfertigt, weil ich bei GANs total ausgesetzt habe und auch mal hier oder da eine Frage nicht ganz wusste. Also alles in allem sehr faire Klausur!