ganz dreist lasse ich auch hier meine TeX-Kommandos drin (vgl. PNL-Protokoll). Sieht dank Tipp aber viel schoener aus, oder??? Noch schoener (pdf) bald auf den FS-Seiten bei den Gedächtnisprotokollen.

WBS-Prüfung am 01.03.2004

Prüfer: Habel Beisitzerin: Carola-Eschenbach


Herr Habel hat nahezu alle Themen einmal überflogen und nur wenige ausgelassen. Die Atmosphäre war recht locker. Herr Habel hat mich immer lange reden lassen bis mir nichts weiter einfiel. Am Anfang musste ich erst reinkommen und hatte ein paar Schwierigkeiten, konnte mich aber rausreden. Mir kam die Zeit ungewöhnlich kurz vor, auch wenn es wohl 20 Min waren\\
Meine Vorbereitung bestand aus dem mehrmaligen Durcharbeiten der Folien, alleine und in der Gruppe, und dem Lesen des Buchs von Pool et al. In der Vl selbst hab ich mich in der ersten Hälfte an den Übungen beteiligt, was sicher auch nicht geschadet hat.\\
\\

Habel.: Wir fangen mal mit einer beliebten Einstiegsfrage an: Vergleichen Sie doch mal Datalog mit Prolog und der Prädikatenlogik.

Ich.: Nun, Datalog unterscheidet sich nicht so sehr von Prolog\dots (?). Prolog hat ja eine Tiefensuche implementiert während das bei Datalog meines Wissens nicht spezifiziert ist? Auf jeden Fall ist Datalog eine Sublogik der Prädikatenlogik erster Stufe.

H.: Wo genau liegen denn die Grenzen von Datalog gegenüber der Prädikatenlogik?

I.: Hm\dots ich muss in Datalog ja positive Klauseln aufschreiben und kann davon natürlich auch nur endlich viele benutzen. Wenn ich diese in der Pr.-logik 1. Stufe als Diskjunktion aufschreibe, sind das Disjunktionen mit höchstens einem positiven Literal. Bei nur negativen käme man dann in die Hornklauseln\dots

H.: Ja, auf die Hornlogik wollte ich hinaus. Gut, wir hatten ja für Datalog verschieden Verfahren, um Aussagen abzuleiten. Welche sind das?

I.: Es gibt Bottom-up und Top-down. (Habe beide recht ausführlich mit Angabe des groben Algorithmus erklärt)

H.: Wir hatten ja auch Aktionen und Planung. Was unterscheidet das denn von Suche?

I.: An sich kann man das auch als Suche betrachten. Man geht von einem Startzustand aus und sucht über Aktionen als Kanten Folgezustände, bis das Ziel erreicht ist. Den Zielzustand anzugeben ist allerdings oft schwierig, weil dieser nicht genau spezifiziert ist.

H.: Und wo ist der Unterschied zu den ganzen Themen, die wir davor behandelt hatten?

I.: Es gibt jetzt eine veränderliche Welt, also sie ist nicht mehr statisch.

H.: Und wie repräsentiert man das dann in STRIPS und Situationskalkül?

I.: (Habe beides recht ausführlich erklärt) durch Regeln, die spezifizieren, was in einer Situation gilt, bei STRIPS add-list und delete-list. Dazu wichtig sind noch die Frameaxiome.

H.: Wozu braucht man diese?

I.: Um Aussagen machen zu können über Dinge, die sich durch Aktionen nicht geändert haben.

H.: Dann gab es ja noch das Annahmenbasierte Schliessen und Default Reasoning. Wo sind da die Unterschiede?

I.: (hab erst erklärt, wozu man das alles überhaupt braucht und das formale Modell mit F, H und D) Default: Gründe, die für oder gegen eine Annahme sprechen. Der Weg der Erklärung ist egal. Bei Abduktion hat man eine Evidenz und will diese erklären. Ausserdem wird bei Abduktion auch spezifiziert, was nicht normal oder fehlerhaft ist. Dazu sind die sog. Integrity constraints wichtig.

H.: Wie funktionieren diese denn und was wie implementiere ich das?

I.: Eine Regel der Art $false \leftarrow a \wedge b \wedge \dots$. (Hab das Beispiel mit interessanten AI-Artikeln gebracht). Man kann nicht immer über Integrity contraints Probleme beim Default Reasoning ausschliessen.

H.: Dann ging es ja noch um das Unsichere Schliessen, auch mit Wahrscheinlichkeiten bezeichnet. Worum handelt es sich dabei?

I.: Man will abwägen können, wie sinnvoll Aktionen wahrscheinlich sind. Dazu vergibt man Wahrscheinlichkeiten und spannt den Raum der möglichen Welten auf. Jeder davon weist man dann eine sog. Utility zu. Damit kann man dann ausrechnen, welche Aktion man ausführen sollte.

H.: Sie haben ja jetzt schon decision networks und belief networks vereinigt. Sagen Sie da noch mehr zu.

I.: Nun ich erkläre einfach die decision networks zuende. Also man trifft Entscheidungen, teils nur um neue Information zu sammeln, und kann dann aufgrund der Information neue Entscheidungen treffen. Dazu gibt es Zufallsvariablen und sowohl Entscheidungen als auch Zufallsvariablen beeinflussen dann die Nützlichkeit.

H.: Ok, wir sind fertig.