Sie befinden sich hier: Termine » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » intropr_februar_2013   (Übersicht)

  • IntroPR - Introduction to Pattern Recognition
  • Prüfer: Elli Angelopoulou
  • Beisitzer: unbekannt
  • Bachelor Vertiefungsrichtung, 7.5 ECTS

Also Prüfung war in IntroPR mit 7,5 ECTS und Prüferin Elli Angelopoulou, den Beisitzer kannte ich nicht. Prüfungsatmosphäre war eigentlich ziemlich gut. Und hier die Fragen:

  • Pipeline hinmalen (und ein paar Sätze zu jedem Schritt erzählen)
  • dann Nyquist Theorem hinschreiben und erklären (delta x ist halt der Abtastabstand und B die Frequenzbreite und dann wenn man des so einhält gibts halt keinen Informationsverlust und des Signal kann wieder rekonstruiert werden)
  • 3 Preprocessing Methods nennen
  • dann eine Thresholding Methode erklären (hab Intersection of two Gaussians genommen und des erklärt (Vordergrund und Hintergrund jeweils normalverteilt und der Threshold ist dann da wo sich die beiden Gaussians schneiden + Formal für Normalverteilung hinschreiben)
  • dann unterschied zwischen heuristic und analytic Feature Extraction erklären
  • dann sollte ich ein bisschen über walsh Functions und die Hadamard Transformation berichten (also ein paar Walsh Functions malen, erklären dass die Sinus und Cosinus nachmachen und halt damit mehr oder weniger die Fourier Transformation imitieren und dann eben erklären dass man sie mit der Hadamard Matrix anordnen kann und dann wie man die Hadamard Matrix bildet (also mit Kronecker Produkt und so)
  • als analytic Feature Extraction hat se dann LDA gefragt (was optimiert werden soll (intraclass minimal und interclass maximal), dann wie man die beiden verbindet (also s2, s3, s4 und s5 hingeschrieben) und dann noch was man in der Theorie mehr nimmt, s4 oder s5 (da musst ich raten aber nachdem wir in der Vorlesung den Raighley Quotient gemacht hab hab ich auf den getippt was dann auch stimmte))
  • dann sollte ich drei objectiv Functions für Feature Selections nennen (Error Rate, Bayesian Distance, Conditional Entropy und Mutual Information)
  • dann kam natürlich die Decision Rule für den Bayesian Classifier hinschreiben
  • dann musste ich erklären wie man auf die Posterior Probability kommt (also mit Bayes Rule umformen und dann des p(c/omega) bestimmen)
  • wollte dann wissen wie ich des p(c/omega ) bestimmen kann (hab dann gemeint man kann annehmen dass normalverteilte Features annehmen)
  • und dann wollte sie wissen was man machen kann wenn man keine Normalverteilung annehmen will (hab dann gemeint KNN oder Parzen Windows)
  • dann wollte sie eben noch die Formel haben wie man des mit den Parzen Windows schätzt (dan wollte sie dann glaub ich des p(c/omega) = g(kappa)/NV, aber da bin ich nicht sicher, da ich nur bis Bayes gelernt hatte)