Sie befinden sich hier: Termine » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Künstliche Intelligenz 1 & 2 » Allgemein   (Übersicht)

Inhaltsverzeichnis

Allgemein

Die Prüfungsstimmung ist sehr entspannt. Im Vornherein wurde mir erst einmal erläutert wie die Prüfung abläuft. Prof. Kohlhase betont, dass die Prüfung ein Dialog sein sollte und man auch mal eine Frage stellen dürfe. Man soll auch während der Prüfung was aufschreiben/aufmalen - Papier und Stifte liegen schon bereit. Die Prüfung dauert 30 Minuten.

Fragen

Q: „Was war unser generelles Ziel, wie sind sind wir vorgegangen?“

A: „Wir gehen von natürlicher Sprache aus. Zusätzlich kommen wir durch Analyse jener auf eine Formale Sprache. Beides zusammen ist grundätzlich der Bereich mit dem sich die Computerlinguistik befasst (grüner Kasten). Wir gehen davon aus, dass es ausreicht, um auf die restlichen Konzepte zu kommen (Modell, Calculus, Entailment Formaler Sprache, …). Uns interessieren unter anderem die Wahrheitsbedingungen (truth conditions) von Aussagen.“

<Ich male die Folie Natural Language Semantics? auf und erkläre das Vorgehen.>

Q: „Wo liegen jetzt letztendlich diese 'truth conditions', die wir wollen?“

A: (Etwas unsicher…) „Naja, offensichtlich außerhalb von unserem Kasten, oben rechts hätte ich gesagt.“

(War nicht ganz richtig. Es sollte das Entailment von natürlicher Sprache genannt werden - unten rechts auf der Folie. Da ich aber von Gleichheit von den Entailment === Derivation Pfeilen ausgehe, ist das nicht ganz falsch.)

Q: „Wir haben uns dann die Methode der Fragmente Richard Montague angesehen. Was hat es damit auf sich?“

A: „Wir möchten gerne die Information aus Sätzen extrahieren. Mit Parsen können wir u.a. syntaktische Informationen (Output: Syntax Tree; Satz als Komposition) oder semantische Informationen (Individuen, Statements) herausbekommen und weiterverwenden.“

(Das ist eher die Verwendung. Was er hören wollte: Framente stellen Grammatiken da. Wenn man ein Fragment erweitert, kann man mehr von der Sprache abdecken.)

Q: „Ok, nehmen wir doch mal ein Beispiel: Peter liebt Maria.“

A: <Ich male den Syntax-Baum dazu auf.>

<Auf Nachfrage hin, schreibe und erkläre ich die Prolog Linearisierung: love(peter, mary)>

Q: „Gut, wie machen wir darauf jetzt Inferenz?“

A: <Ich habe den Aufbau von Inferenz-Termen erklärt.>

Q: „Die Regeln alleine reichen aber nicht, was brauchen wir denn noch?“

A: „Wir haben nun die Möglichkeit Validität oder Erfüllbarkeit mittels Tableau Kalkül zu zeigen.“

Q: „Okay, wie geht das dann weiter? Zeig doch mal, wie das mit der Erfüllbarkeit abläuft.“

„Um Inferenz zu machen, benötigen wir erstmal eine logische Form, die wir nun haben. Wir hatten eine Art Pipeline, auf der wir mithilfe von GF innerhalb einer quasi-logischen Ebene eine logische Form erreichen konnten (siehe Folie Summary: The Interpretation Process). Nun, das Beispiel ist ja zu trivial. Wir haben ja nur eine Aussage, da können wir nicht großartig inferieren.“

<Neues Beispiel: Peter liebt Maria. Maria ist glücklich.>

„Wir bilden eine logische Form: love(peter, mary) ⇒ happy(mary)“ (Im Nachhinein fällt mir auf, dass die Aussage und der Term nicht zueinander passen. Müsste wohl ein natürliche Sprache Beispiel mit kausalen Zusammenhang zwischen den Sätzen sein oder aber statt der Implikation eine Ver-Undung in der logischen Form.)

<Ich erkläre das jeweilige Vorgehen und zeige Erfüllbarkeit anhand des Beispiels.> „Wir haben nun zwei Modelle: love(peter, mary)^F, happy(mary)^T

Q: „Ganz so einfach ist es aber nicht immer, oder?“

A: „Es gibt auf verschiedenen Ebenen Mehrdeutigkeiten/Ambiguitäten. Aus den Folien.“

<Ich erkläre die unterschiedlichen Typen an Ambiguitäten von der Folie „The computational Role of Ambiguities“>

Q: „Hm, okay. Nun nehmen wir mal ein Beispiel her: Peter ist ein Student und schläft. Er schnarcht.“

A: „Hier haben wir das Vorkommen einer Anapher. Wir wollen nun feststellen, dass mit Er das Subjekt aus dem ersten Satz, Peter, gemeint ist.“

Q: „Was kann man da nun machen?“

A: „Mit der Discourse Representation Theorie können wir uns den Kontext der Sätze ansehen.“

<Ich male die Aussagen in DRT als zwei tiles auf und zeige den merge-Operator. Am Ende haben wir eine tile mit aufgelöster Anapher>

„Das ist aber nur hier so einfach, weil wir quasi nur eine Lesweise haben. Gäbe es mehrere Lesweisen kann es nicht eindeutig sein, wie die Anapher aufgelöst werden muss:

Peter liebt seine Mutter. Richard auch. (Liebt Richard seine eigene oder die Mutter von Peter?)“

Q: „Und was ist daran jetzt besser als das mit Prädikaten Logik auszudrücken?“

A: „Wir können den Kontext dynamisch erweitern. Wir können jederzeit von einer Repräsentations-Ebene (DRT) zu einer logischen Ebene (PL) übersetzen, jedoch geht das erweitern nicht auf der logischen Ebene. (siehe Folie DRT as a Representational Level)“

Q: „Wo sind die Grenzen bei DRT, was für Probleme kann es geben? Nenne doch mal ein Beispiel.“

A: Wusste ich nicht. Ein richtiges Beispiel wäre doppelte Negation. (War dann aber nur eine Bonusfrage…)

Bewertung

Ich sei konzeptuell sehr gut vorbereitet gewesen. Meine technisches Verständnis war jedoch stellenweise nicht gut ausgeprägt. Meine Investition in die Vorbereitung fühlt sich insgesamt als gut investierte Zeit an und die Note inklusive Begründung sind für mich in Ordnung.

Mit der Note 1,7 bin ich zufrieden.

Vorbereitung

Während des Semesters besuchte ich etwa 90% aller Vorlesung- und „Lab“-Termine. Es wurde positiv aufgefasst, dass ich mich interaktiv an jenen Terminen beteiligt hatte (mögliche Diskussionsthemen ansprechen, Unklarheiten nachfragen,usw.). Das Vorlesungs-Script (notes-WS1718.pdf) habe ich nochmals gründlich durchgearbeitet. Dafür sollte man sich schon nochmals 2 Wochen Zeit nehmen vor der Prüfung.

Alle Angaben ohne Gewähr.