Sie befinden sich hier: Termine » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » dl-10-08-19   (Übersicht)

Einstiegsfrage: Überblick über die Vorlesung (so Mindmap mäßig), keine Details - kleiner Tip am Rande: gegen Ende der Prüfung hat er die von mir gemalte Mindmap nochmal hergenommen um sich Anregungen zu suchen. evtl kann man da was zu seinen Gunsten drehen (zB indem man gewissen Sachen deutlicher schreibt oder weglässt bzw hervorhebt, etc)

Rosenblatt Perceptron Konkret was man damit nicht lösen kann (nicht-lineare decision boundarys, bspw XOR-Problem), das war die Überleitung zu MLP: - wie funktionert das - in dem Kontext: universale Funktion Approx. Theorem (mit Formel, ebenso wollte er erklärt haben wie die funktioniert, also Summe über alle Perceptrons, diese gewichtet, etc);

(Diese ersten beiden Blöcke kommen IMMER dran, wenn man sich mal die Altprotokolle gibt - auf jeden Fall beides vorbereiten)

Activierungsfunktionen Alle hingemalt, auf alle eingegangen und erklärt welche Vor- und Nachteile die haben , wann man die nimmt (ein grundlegendes Verständnis davon ist sehr wichtig, also schaut euch das auf jeden Fall genauer an) - bei zero centering auf internal cov shift eingegangen - da hat er gefragt was man noch dagegen tun kann: BatchNormalization . - Da hat er dann gefragt wie das funktioniert; hab Formel hingeschrieben und erklärt. Dabei hat er gefragt was man macht wenn man kein Batch hat sondern nur einzelne Inputs → Layer normalization, Instance norm ( da hats bei mir gehapert, war nur eine Folie. Wollte aber glaub ich nicht genau wissen wie das funktioniert, wollte nur die Dinger genannt haben) - bei SELU hat er gefragt wofür man das braucht und warum das besser ist als ELU; wollte auf die selbstnormalisierenden Netzwerke raus. Da wollte er keine Details, nur dass es das gibt und das SELU dafür wichtig ist

Optimizers, Backpropagation, Gradient Descent - hat erstmal gefragt wie man das trainiert. Also: backpropagation + gradient descent, beides mit Formeln (Chainrule) - dann sind wir auf momentum gekommen. auch dazu Formel hingeschrieben, weighted average als Schlagwort - Am Schluss wollte er wissen was ADAM von sgd+momentum unterscheidet (also dieser parameter pro weight anstatt alle weights gleich).

Convolutional Networks Letztendlich wollte er wissen was man für Image Recognition nimmt → Conolution. Also Conv erklärt, warum das besser ist als FC für diesen Task, wie das genau funktioniert, etc. Dann wollte er wissen wie Pooling geht, also wofür man das nimmt (dim reduktion, translation invariant, less overfitting (die letzen beiden punkte hab ich dazu gesagt, er hat eigentlich nur gefragt was man nimmt um die dimension zu reduzieren); welche varianten? → (avg, max) dann hat er gefragt was man heutzutage lieber nimmt zur dim reduktion → dilatial / strided convolution , weil trainierbar

Unsupervised Learning Dann der erwähnte Blick auf die Mindmap; Unsupervised Learning: „Was haben wir uns denn da angesehen? Das ist ja verhältnismäßig einfach.“ (Da hab ich erstmal geschluckt) „Also, das wichtigste waren wohl GANs.“ Er hat dann erstmal überlegt und ich hab noch schnell hinzugefügt: „Ok, auf jedenfall waren die am coolsten. “ Das hat er dann sofort aufgegriffen und hat mich erklären lassen wie die grob funktioneren (also D vs G, minimax, G generiert bilder, D versucht real von fake zu unterscheiden). Dann musste ich noch den Loss hinmalen und erklären wie der funktioniert.

Damit war die Prüfung dann vorbei. Alles in allem waren beide, also Vincent und die Beisitzerin sehr nett und ruhig. Ich kann empfehlen, auch wenn man etwas nur grob weiss, evtl trotzdem zu versuchen es kurz zu erklären. Ich hab einmal gehangen bei der Sache mit den BatchNorm-Varianten, grob wusste ich dass es da zB Layer-Normalization gab, hab aber gleich gesagt dass ich mich da nicht gut auskenne. Kann das jetzt nicht sicher einschätzen, aber ich glaube das war unklug. Ich hatte insgesamt mehrere Stellen wo ich nicht ganz sicher war, aber Vincent hat mir da immer etwas auf die Sprünge geholfen; am Schluss hat er aber nur diese Sache als failure erwähnt, also evtl nur wenn man wirklich wirklich nichts weiss das dann auch so direkt zugeben - und dann aber direkt, sonst verschwendet man nur Zeit. Insgesamt kann ich nur empfehlen viel selbst zu reden und, wenn euch ein Thema besonders gefallen hat, das auch irgendwie zu vermitteln. Nette Prüfer tendieren dazu dann mehr zu fragen. Trotzdem empfiehlt es sich grob alles zu wissen, man kann sich sicher nicht darauf verlassen.

Vorbereitung: haha, viel Spaß:D