Du befindest dich hier: FSI Informatik » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 2 » Prüfungsprotokoll "Cluster Computing" und "Parallele Algorithmen"
Inhaltsverzeichnis
Prüfungsprotokoll "Cluster Computing" und "Parallele Algorithmen"
Bemerkungen
- Prüfungszeitraum September / Oktober 2008
- Die Fragen gestellt hat Ronald Veldema, entsprechend war Prof. Philippsen Beisitzer.
- Ronald hatte eine Liste von Punkten, an der er sich entlanggehangelt hat. Das Gespräch auf Themen zu lenken, die einem gut liegen, war so leider unmöglich.
- Leider ist die Prüfung schon wieder zwei Tage her, deshalb ist das Protokoll vermutlich unvollständig.
Cluster Computing
Ronald Veldema war hier ganz versessen auf MPI, insbesondere auf die
verschiedenen *send
.
- Einstieg: Projekt in Cluster Computing: Als Übungsbetrieb hat je eine 2er Gruppe ein Projekt programmiert. Die Übung bestand dann darin, dieses Projekt vorzustellen.
- MPI:
- Unterschiede zwischen
send
,ssend
,bsend
undrsend
. Wann (bzw. welche davon) blockiert ein*send
? - Was machen
scatter
undgather
? - Was macht
reduce
? - Wie wird bei MPI der Empfänger angegeben? (→ Communicator)
- Was ist Infiniband? (Hier war Ronald mit „Eine Netzwerk-Technologie, die in Clustern oft verwendet wird“ eigentlich schon zufrieden und wollte nur auf DMA hinaus.)
- Was ist DMA und wie funktioniert es?
- Page Exchange DMA: Wie funktionierts?
- Was muss der Sender (bzw. Empfänger) bei RDMA tun?
- Was ist „BSP“? (Im Script findet sich Bulk Synchronous Parallel.)
Parallele Algorithmen
- Was ist ein Deadlock? Was ist ein Livelock? Was ist eine Race Condition? Unterschiede zwischen den dreien?
- Wie kann man diesen Problemen begegnen? (z. B. Mutex)
- Beschreibe einen beliebigen Algorithmus für gegenseitigen Ausschluss. (z. B. Ticketing Algorithmus)
- Beliebige (wirre) Funktion: Wie berechnet man das Integral von 0 bis *n* via der Finite Elemente Methode?
- Wie könnte man die gleiche Funktion mit der Monte Carlo Methode integrieren?