Du befindest dich hier: FSI Informatik » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » dl-10-08-19 (Übersicht)
no way to compare when less than two revisions
Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen der Seite angezeigt.
— | pruefungen:hauptstudium:ls5:dl-10-08-19 [08.10.2019 08:33] (aktuell) – angelegt saphira | ||
---|---|---|---|
Zeile 1: | Zeile 1: | ||
+ | **Einstiegsfrage**: | ||
+ | Überblick über die Vorlesung (so Mindmap mäßig), keine Details | ||
+ | - kleiner Tip am Rande: gegen Ende der Prüfung hat er die von mir gemalte Mindmap nochmal hergenommen um sich Anregungen zu suchen. evtl kann man da was zu seinen Gunsten drehen (zB indem man gewissen Sachen deutlicher schreibt oder weglässt bzw hervorhebt, etc) | ||
+ | |||
+ | **Rosenblatt Perceptron** | ||
+ | Konkret was man damit nicht lösen kann (nicht-lineare decision boundarys, bspw XOR-Problem), | ||
+ | - wie funktionert das | ||
+ | - in dem Kontext: __universale Funktion Approx. Theorem__ (mit Formel, ebenso wollte er erklärt haben wie die funktioniert, | ||
+ | |||
+ | (Diese ersten beiden Blöcke kommen IMMER dran, wenn man sich mal die Altprotokolle gibt - auf jeden Fall beides vorbereiten) | ||
+ | |||
+ | **Activierungsfunktionen** | ||
+ | Alle hingemalt, auf alle eingegangen und erklärt welche Vor- und Nachteile die haben , wann man die nimmt (ein grundlegendes Verständnis davon ist sehr wichtig, also schaut euch das auf jeden Fall genauer an) | ||
+ | - bei zero centering auf __internal cov shift__ eingegangen - da hat er gefragt was man noch dagegen tun kann: __BatchNormalization__ . | ||
+ | - Da hat er dann gefragt wie das funktioniert; | ||
+ | - bei SELU hat er gefragt wofür man das braucht und warum das besser ist als ELU; wollte auf die selbstnormalisierenden Netzwerke raus. Da wollte er keine Details, nur dass es das gibt und das SELU dafür wichtig ist | ||
+ | |||
+ | **Optimizers, | ||
+ | - hat erstmal gefragt wie man das trainiert. Also: backpropagation + gradient descent, beides mit Formeln (Chainrule) | ||
+ | - dann sind wir auf momentum gekommen. auch dazu Formel hingeschrieben, | ||
+ | - Am Schluss wollte er wissen was ADAM von sgd+momentum unterscheidet (also dieser parameter pro weight anstatt alle weights gleich). | ||
+ | |||
+ | **Convolutional Networks** | ||
+ | Letztendlich wollte er wissen was man für Image Recognition nimmt -> Conolution. Also Conv erklärt, warum das besser ist als FC für diesen Task, wie das genau funktioniert, | ||
+ | Dann wollte er wissen wie Pooling geht, also wofür man das nimmt (dim reduktion, translation invariant, less overfitting (die letzen beiden punkte hab ich dazu gesagt, er hat eigentlich nur gefragt was man nimmt um die dimension zu reduzieren); | ||
+ | dann hat er gefragt was man heutzutage lieber nimmt zur dim reduktion -> dilatial / strided convolution , weil trainierbar | ||
+ | |||
+ | **Unsupervised Learning** | ||
+ | Dann der erwähnte Blick auf die Mindmap; Unsupervised Learning: "Was haben wir uns denn da angesehen? Das ist ja verhältnismäßig einfach." | ||
+ | "Also, das wichtigste waren wohl GANs." | ||
+ | Er hat dann erstmal überlegt und ich hab noch schnell hinzugefügt: | ||
+ | Das hat er dann sofort aufgegriffen und hat mich erklären lassen wie die grob funktioneren (also D vs G, minimax, G generiert bilder, D versucht real von fake zu unterscheiden). | ||
+ | Dann musste ich noch den Loss hinmalen und erklären wie der funktioniert. | ||
+ | |||
+ | Damit war die Prüfung dann vorbei. Alles in allem waren beide, also Vincent und die Beisitzerin sehr nett und ruhig. Ich kann empfehlen, auch wenn man etwas nur grob weiss, evtl trotzdem zu versuchen es kurz zu erklären. Ich hab einmal gehangen bei der Sache mit den BatchNorm-Varianten, | ||
+ | Insgesamt kann ich nur empfehlen viel selbst zu reden und, wenn euch ein Thema besonders gefallen hat, das auch irgendwie zu vermitteln. Nette Prüfer tendieren dazu dann mehr zu fragen. | ||
+ | Trotzdem empfiehlt es sich grob alles zu wissen, man kann sich sicher nicht darauf verlassen. | ||
+ | |||
+ | Vorbereitung: | ||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||