Sie befinden sich hier: Termine » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » Prüfungsprotokoll Deep Learning WS 2018/19   (Übersicht)

Prüfungsprotokoll Deep Learning WS 2018/19

Prüfer: Prof. Maier

An die Reihenfolge kann ich mich nicht mehr erinnern, daher nach Themen gruppiert. Oft gab es auch Übergänge von einem Thema zu einem anderen. Ich hoffe ich habe nichts vergessen. :)

Einstieg

  • Übersicht über die Themenbereiche geben

Perceptrons

  • Erklärung, was Perceptrons sind
  • Was kann man mit Perceptrons nicht machen?

Feed Forward Networks

  • Wie können wir das Problem mit Perceptrons lösen?
  • Funktioniert das für jede Funktion?
  • Backpropagation erklären

Loss functions

  • Nur kurz im Kontext mit Backpropagation erwähnt

Optimization

  • Keine explizite Frage zum Thema

Activation Functions

  • Was haben wir für Activation Functions?
  • Was ist an Sigmoid schlecht? Wie können wir das verbessern?
  • Welches Problem haben ReLUs? Wie können wir das verbessern?

Convolutional Networks

  • Was sind Convolutional Networks? Worauf basieren sie?
  • Was ist Pooling?

Regularization

  • Antwort auf die Frage, wie man verhindern kann, dass bei Sparse Autoencodern nur die Identität gelernt wird?
  • Wie kann man Overfitting auf die Trainingsdaten verhindern?

Normalization

  • Keine explizite Frage zum Thema

Initialization

  • Keine explizite Frage zum Thema

Architectures

  • LeNet als Einstieg zu Convolutional Networks. Was waren die Neuerungen bei LeNet?
  • Residual Networks erklären. Er hat dann noch selbst erzählt, dass man damit Ensembling erreicht.

Recurrent Neural Networks

  • Elmar RNN hinzeichnen und erklären
  • Wie kann man hier lernen? Wie kann man es verbessern?

Visualization

  • Wie können wir herausfinden, wofür ein Neuron zuständig ist?

Reinforcement Learning

  • Was ist ein Markov Decision Process?
  • Wie können wir eine erste Policy erzeugen? Wie können wir diese verbessern? Wie nennt sich der Algorithmus?

Object Detection

  • Was ist YOLO und wie funktioniert es?

Segmentation

  • Wie kommen wir von neuronalen Netzwerken zu Segmentierung?
  • Was muss der Encoder und Decoder machen?
  • Wie kann der Decoder vom Encoder übernehmen?
  • Was ist der Zusammenhang zu Autoencodern? Übergang zu Unsupervised Learning

Unsupervised Learning

  • Warum können wir bei Autoencodern keine Skip Connections verwenden?
  • Was sind Sparse Autoencoder?
  • Was sind GANs?

Die Atmosphäre in der Prüfung war sehr entspannt. Wenn man eine Frage mal nicht ganz beantworten konnte, hat er weitergeholfen, was sich auch nicht negativ auswirkt. Faire Bewertung.