Du befindest dich hier: FSI Informatik » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Künstliche Intelligenz 1 & 2 » Allgemein   (Übersicht)

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen der Seite angezeigt.

Link zu der Vergleichsansicht

Nächste Überarbeitung
Vorherige Überarbeitung
pruefungen:hauptstudium:ls8_kwarc:lbs_20180329 [29.03.2018 10:15] – angelegt Marcel[Inf]pruefungen:hauptstudium:ls8_kwarc:lbs_20180329 [29.03.2018 10:44] (aktuell) Marcel[Inf]
Zeile 2: Zeile 2:
 Die Prüfungsstimmung ist sehr entspannt. Im Vornherein wurde mir erst einmal erläutert wie die Prüfung abläuft: Die Prüfungsstimmung ist sehr entspannt. Im Vornherein wurde mir erst einmal erläutert wie die Prüfung abläuft:
  
-Dialog (20 - 30min): Prof. Kohlhase betont, dass die Prüfung ein Dialog sein soll, man auch mal eine Frage stellen dürfe und Selbstiniative ergreife könne zu Themen, die man beherrscht. Die Prüfung dauert so lange (jedoch im 20-30min Rahmen), bis er einen und seine Note abschätzen kann. Man soll auch während der Prüfung etwas aufschreiben/aufmalen - Papier und Stifte liegen schon bereit. Die Prüfung dauert 20-30 Minuten. +  * Dialog (20 - 30min): Prof. Kohlhase betont, dass die Prüfung ein Dialog sein soll, man auch mal eine Frage stellen dürfe und Selbstiniative ergreife könne zu Themen, die man beherrscht. Die Prüfung dauert so lange (jedoch im 20-30min Rahmen), bis er einen und seine Note abschätzen kann. Man soll auch während der Prüfung etwas aufschreiben/aufmalen - Papier und Stifte liegen schon bereit. Die Prüfung dauert 20-30 Minuten. 
-Notengebung: Prof. Kohlhase und der Beisitzer machen dann die Note unter sich aus, während man außerhalb des Büros wartet. +  Notengebung: Prof. Kohlhase und der Beisitzer machen dann die Note unter sich aus, während man außerhalb des Büros wartet. 
-Notenbesprechung: Wann wird erneut hineingebeten und es wird die Notengebung und -begründung besprochen.+  Notenbesprechung: Wann wird erneut hineingebeten und es wird die Notengebung und -begründung besprochen.
  
 ====== Fragen ====== ====== Fragen ======
-**Q: "Wir haben uns dann die Methode der Fragmente Richard Montague angesehen. Was genau ist das?"**+**Q: "Wir haben uns die Methode der Fragmente Richard Montague angesehen. Was genau ist das?"**
  
 A: Es gibt statistische Verfahren zur Sprachverarbeitung. Deren Abdeckung ist "wide", aber deren Verständnis "shallow". Denen gegenüber stehen logik-basierte Verfahren mit einer "narrow" Abdeckung, dafür aber "deep" Verständnis. (Vgl. die Folie "What is the State of the Art In NLU?" im Einführungsteil.) Die logik-basierten Verfahren parsen wirklich den Text und wenden dann Methoden der Logik an. => Man benötigt Grammatiken für die Sprache. Da sowieso nicht mal klar ist, was grammatikalisch ist und was nicht (Sprache wandelt sich), versuchte Montague iterativ mit Fragmenten (= Teile des Englischen gegeben durch EBNF-Grammatiken) die englische Sprache abzudecken. Bei jeder Iteration neue noch nicht abgedeckte Sätze gefunden und Fragment sowie Logik erweitert. A: Es gibt statistische Verfahren zur Sprachverarbeitung. Deren Abdeckung ist "wide", aber deren Verständnis "shallow". Denen gegenüber stehen logik-basierte Verfahren mit einer "narrow" Abdeckung, dafür aber "deep" Verständnis. (Vgl. die Folie "What is the State of the Art In NLU?" im Einführungsteil.) Die logik-basierten Verfahren parsen wirklich den Text und wenden dann Methoden der Logik an. => Man benötigt Grammatiken für die Sprache. Da sowieso nicht mal klar ist, was grammatikalisch ist und was nicht (Sprache wandelt sich), versuchte Montague iterativ mit Fragmenten (= Teile des Englischen gegeben durch EBNF-Grammatiken) die englische Sprache abzudecken. Bei jeder Iteration neue noch nicht abgedeckte Sätze gefunden und Fragment sowie Logik erweitert.
Zeile 17: Zeile 17:
 - Wir gehen davon aus, dass die NL Utterance als String vorliegt. Selbst hier gibt es Ambiguitäten, wenn man sie z. B. aus Audiodaten gewinnt. => Satzgrenzen, Wortgrenzen, Homophone, im Endeffekt kommen am Ende Wahrscheinlichkeiten für bestimmte Satzkombinationen heraus und man entscheidet sich für die wahrscheinlichste. - Wir gehen davon aus, dass die NL Utterance als String vorliegt. Selbst hier gibt es Ambiguitäten, wenn man sie z. B. aus Audiodaten gewinnt. => Satzgrenzen, Wortgrenzen, Homophone, im Endeffekt kommen am Ende Wahrscheinlichkeiten für bestimmte Satzkombinationen heraus und man entscheidet sich für die wahrscheinlichste.
  
-Parsen mit syntaktischer GF Grammatik+  * Parsen mit syntaktischer GF Grammatik
  
 Rechtes Dreieck: Rechtes Dreieck:
Zeile 25: Zeile 25:
 Wie nun vom linken zum rechten Dreieck? Kompositional schwer! Deswegen mittleres Dreieck: Wie nun vom linken zum rechten Dreieck? Kompositional schwer! Deswegen mittleres Dreieck:
  
-Quasilogische Form (QLF), z. B. FOL mit Lambda-Kalkül +  * Quasilogische Form (QLF), z. B. FOL mit Lambda-Kalkül 
-<Ich schreibe den Satz "Every dog is clever." hin.> +  <Ich schreibe den Satz "Every dog is clever." hin.> 
-Determiner in der echten Sprache ist tief unten, in FOL aber ganz oben (∀x. dog(x) → clever(x)).> +  Determiner in der echten Sprache ist tief unten, in FOL aber ganz oben (∀x. dog(x) → clever(x)).> 
-Deswegen quasilogische Form, durch β-Reduktion kann clever(x) "reingezogen" werden.+  Deswegen quasilogische Form, durch β-Reduktion kann clever(x) "reingezogen" werden.
  
 **Q: "Könntest du den AST zu deinem Satz angeben?"** **Q: "Könntest du den AST zu deinem Satz angeben?"**
Zeile 39: Zeile 39:
  
 Dann kam ich auf die richtige Lösung mit "λP Q. (∀x. (P x) → (Q x))". Dann kam ich auf die richtige Lösung mit "λP Q. (∀x. (P x) → (Q x))".
 +
 +**Q: "Du hast ja bereits Ambiguität angesprochen. Wo treten denn sonst noch Ambiguitäten auf?"**
 +
 +Siehe Folie "The computational Role of Ambiguities".
  
 **Q: "Zu den Fragmenten hast du jetzt zu Genüge erzählt. Gehen wir zu den Topics in Semantics über. Da gibt es die Diskursrepräsentationstheorie (DRT). Kannst du dazu etwas sagen?"** **Q: "Zu den Fragmenten hast du jetzt zu Genüge erzählt. Gehen wir zu den Topics in Semantics über. Da gibt es die Diskursrepräsentationstheorie (DRT). Kannst du dazu etwas sagen?"**
Zeile 46: Zeile 50:
 Peter has a car. It is parked outside. ↦ (∃x. car(x) ∧ own(peter, x)) ∧ parked(x??) Peter has a car. It is parked outside. ↦ (∃x. car(x) ∧ own(peter, x)) ∧ parked(x??)
  
-Im letzten x können wir uns nicht mehr auf den Diskursreferenten im ersten Teil beziehen. Dies ist eine Einschränkung von FOL. Deswegen lockert DRT die Sichtweise auf den Scope von Variablen etwas auf. DRT benutzen wir dann als QLF. Wir können die immer in Predicate Logic (aber teuer) übersetzen und dann Inferenz betreiben oder aber die Semantik auf DRT selbst erklären, was aber nicht ganz so einfach ist.+Durch unsere (naive) kompositionale Übersetzung bekommen wir obige logische Form. Im letzten x können wir uns nicht mehr auf den Diskursreferenten im ersten Teil beziehen. Dies ist eine Einschränkung von FOL. Kompositional die eigentlich gewollte logische Form zu erzeugen ist schwierig. Benutze DRT als QLF, denn DRT lockert die Sichtweise auf den Scope von Variablen etwas auf. Wir können die immer in Predicate Logic/FOL (aber teuer) übersetzen und dann Inferenz betreiben oder aber die Semantik auf DRT selbst erklären, was aber nicht ganz so einfach ist.
  
 **Q: "Genau, danach werde ich dich nicht fragen :)"** **Q: "Genau, danach werde ich dich nicht fragen :)"**
Zeile 66: Zeile 70:
 A: <Ich ergreife Selbstiniative:> Lustig finde ich auch die Higher-Order-Unification und wie es sowas löst wie "John loves his wife. Peter does too". => Modellierung als Higher Order Gleichung: "Q john ≟ love(john, wife_of(john))". Diese führt auf 4 Lösungen, davon kann man zwei verwerfen, indem man diese danach filtert, ob die Primary Occurrence ≠ john ist, denn wir wollen ja gerade eine Eigenschaft haben, die auch George hat. Ich nenne die einzigen zwei verbleibenden und sinnvollen Lösungen: A: <Ich ergreife Selbstiniative:> Lustig finde ich auch die Higher-Order-Unification und wie es sowas löst wie "John loves his wife. Peter does too". => Modellierung als Higher Order Gleichung: "Q john ≟ love(john, wife_of(john))". Diese führt auf 4 Lösungen, davon kann man zwei verwerfen, indem man diese danach filtert, ob die Primary Occurrence ≠ john ist, denn wir wollen ja gerade eine Eigenschaft haben, die auch George hat. Ich nenne die einzigen zwei verbleibenden und sinnvollen Lösungen:
  
-λx. love(x, wife_of(x)) +  * λx. love(x, wife_of(x)) 
-λx. love(x, wife_of(john))+  λx. love(x, wife_of(john))
  
 **Q: "Gut, ich denke, ich kann dich mit den bisherigen Antworten sehr gut einschätzen; auch ohne, dass wir dich herausbitten müssen. Ich würde dir eine 1.0 geben."** **Q: "Gut, ich denke, ich kann dich mit den bisherigen Antworten sehr gut einschätzen; auch ohne, dass wir dich herausbitten müssen. Ich würde dir eine 1.0 geben."**
Zeile 76: Zeile 80:
  
 Allgemein sei noch angemerkt, dass die Notengebung in diesem Semester (WS 17/18) zu 50% aus [Anwesenheits ("Attendance") + abgegebene Hausaufgaben] und zu 50% der eigentlichen Prüfung bestand. Allgemein sei noch angemerkt, dass die Notengebung in diesem Semester (WS 17/18) zu 50% aus [Anwesenheits ("Attendance") + abgegebene Hausaufgaben] und zu 50% der eigentlichen Prüfung bestand.
-Ich besuchte > 90% der Zeit die VL und das Lab (aka. "sehr interaktive Übung", auch mit Prof. Kohlhase) anwesend und habe zwei GF Grammatiken sowie eine Tableaux Maschine mit FOL Inferenz abgegeben.+Ich besuchte > 90% der Zeit die VL und das Lab (aka. "sehr interaktive Übung", auch mit Prof. Kohlhase) anwesend und habe zwei GF Grammatiken sowie eine Tableaux Maschine mit FOL Inferenz mit mehreren hundert Zeilen Code abgegeben
 +Inwieweit die 50% der [Attendance + Hausaufgaben] in meine Note einflossen, wurde jedoch nicht gesagt und ich habe auch nicht gefragt.
  
 ====== Vorbereitung ====== ====== Vorbereitung ======