Prüfer: Prof. Maier
An die Reihenfolge kann ich mich nicht mehr erinnern, daher nach Themen gruppiert. Oft gab es auch Übergänge von einem Thema zu einem anderen. Ich hoffe ich habe nichts vergessen. :)
Einstieg
Perceptrons
Feed Forward Networks
Loss functions
Optimization
Activation Functions
Was haben wir für Activation Functions?
Was ist an Sigmoid schlecht? Wie können wir das verbessern?
Welches Problem haben ReLUs? Wie können wir das verbessern?
Convolutional Networks
Regularization
Antwort auf die Frage, wie man verhindern kann, dass bei Sparse Autoencodern nur die Identität gelernt wird?
Wie kann man Overfitting auf die Trainingsdaten verhindern?
Normalization
Initialization
Architectures
LeNet als Einstieg zu Convolutional Networks. Was waren die Neuerungen bei LeNet?
Residual Networks erklären. Er hat dann noch selbst erzählt, dass man damit Ensembling erreicht.
Recurrent Neural Networks
Visualization
Reinforcement Learning
Object Detection
Segmentation
Wie kommen wir von neuronalen Netzwerken zu Segmentierung?
Was muss der Encoder und Decoder machen?
Wie kann der Decoder vom Encoder übernehmen?
Was ist der Zusammenhang zu Autoencodern? Übergang zu Unsupervised Learning
Unsupervised Learning
Die Atmosphäre in der Prüfung war sehr entspannt. Wenn man eine Frage mal nicht ganz beantworten konnte, hat er weitergeholfen, was sich auch nicht negativ auswirkt. Faire Bewertung.