Sie befinden sich hier: Termine » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » pr-2016-03-07   (Übersicht)

Pruefer: Prof. Nöth

Grade: 1.3

Atmosphere: Noeth hat sich erstmal gefreut einen Wuerzburger zu treffen und wollte wissen wo ich aufgewachsen bin. Insgesamt wurde mir geholfen auf die richtigen Worte zu kommen, manchmal auch nochmal zusammengefasst was ich eigentlich sagen wollte, das konnt ich dann abnicken und dann wurde es akzeptiert. Mir wurden keine Fallen gestellt, alles sehr freundlich. Der Beisitzer hat die Pruefung ueber nichts gesagt.

Questions: insgesamt (glaube ich) keine neuen Fragen, nur eine andere Zusammenstellung der Fragen aus anderen Protokollen. ich hab meistens auch einfach von mir aus alles hingeklatscht was ich zu nem thema weiss und damit das thema erschlagen. dadurch gabs von ihm sehr wenige initiativ fragen.

Nearest Neighbor (from exercises) Er hat ein Koordinatensystem mit versch. Punkten gezeichnet Q:wie funktioniert kNN

ich hab das erstmal ohne matlab erklaert Q: Nachfrage, wie ist das dann in Matlab? das waeren dann Vectoren und man kann sort zum sortieren, und ' zum transformieren benutzen. - das hat fuer die ganze Pruefung an Matlab gereicht.

Wichtig ist zu erwaehnen, dass die Punkte normiert werden muessen.

Q: wo kam in der vorlesung noch auf NN kam? Bayes erwaehnt, Covarianzen gleich && identity Q: wie bekommt man das? LDA machen und so drehen dass spherical data rauskommt

zu Bayes Gauss Decision Boundaries GMM etc kamen keine Fragen

SVM das ganze thema war sehr ausfuehrlich. Ich hab drauf losgeredet und wurde ab und zu unterbrochen ums genauer zu machen oder zu sagen was meine formel da grade eigentlich macht. wichtig war zu sagen:

was sucht man eigentlich (hyperplane) wieso kann es sein dass sich die beiden klassen ueberlappen (rauschen, fehlklassifizierte testdaten, feature vectoren langen nicht fuer eindeutige Entscheidung) was wird optimiert Formeln zu hard und soft margin Lagrange zu hard margin KTT erwaehnt aber nicht gross angewandt Loss Funktion im hard case die Lagrange dual formel wollte er von mir nicht haben

SVR Q: in der uebung haben wir sowas aehnliches gemacht

SVR erklaert, aufgemalt loss funktion = deadpoint Punkte sollen auf der hyperplane sein statt daneben

adaBoost Q: wir ham am Ende der Vorlesung noch…

ada boost erklaert.

abgenickt wurde:

additives verfahren gewichtete Mehrheitsentscheidung von moeglicherweise 'schlechten' entscheidern (schlechtes ROC aufgemalt zum spass) fehlklassifizierungen werden spaeter staerker gewichtet

Q: wie schaut die loss fkt aus - da hab ich geschlittert

Viola Jones Q: Zeit is fast um, noch schnell wie funktioniert VJ

Gesichtserkennung → riesen daten cascadierte entscheide am anfang 1 (oder wenig) features damits billig ist optimiert auf alle true positives finden weil man alle negaatives im naechsten schritt wegwirft spaeter werden die false negatives in den uebrig gebliebenen samples durch aufwendigere/teurere/mehr features anschauende entscheider (hoffentlich) gefunden

wichtig bleibt zu sagen, dass es sich nicht lohnt den Stift zu klauen. dieser ist mit Noeths namen versehen und er verlangt ihn dann per mail umgehend zurueck. hat meine note im nachhinein aber nicht beeinflusst