Fachschaft Informatik

Prüfungsprotokolle


Prüfungsprotokolle lesen



Protokolle (68 gefunden)

Nr.PrüferFach
10 Leser Prof. Bioinformatik

Protokoll

HK Prüfung Bioinformatik, Hakenberg Beisitzer.
April 2004

Leser hat die Fragen gestellt, und versucht jedes Thema der 
Vorlesung anzureissen. Auf Lücke lernen ist eher schlecht.
Der Beisitzer hat keine Fragen gestellt.
Ganz allgemein war die Atmosphäre der Prüfung sehr ruhig und angenehm.

Thema war (etwas unausführlich, da schon einige Zeit her...)
- Z-Box
- KMP
- Sufixtrees
- Ukkonnen
- PAM

Der Algorithmische Part stand klar im Vordergrund. 
Es wurden fast keine biologischen Fragen gestellt.

Nr.PrüferFach
11 Leser Prof. Bioinformatik

Protokoll

April 2004
lief ganz gut (1.7), war auch ne nette Atmosphäre, die
Prüfung an sich fand ich allerdings ziemlich schwer:
er wollte v.a. eine Haufen Details wissen. Themen
waren:
1.Edit-/alignmentabstand/Pfade in Dotplots:
die ganzen Definitionen, wie kann man sie ineinander
überführen, was ist end-free alignment, wozu braucht
man das (er wollte nur assembly hören, nicht erklärt
haben was das ist)
2. Dynamische Programmierung: 
Rekursionsgleichung hinschreiben, Beispieltabelle
berechnen (mit konstanten Kosten für I,R,D), optimalen
Pfad suchen, was ist das Äquivalent dazu im
Editgraphen, was gibt es für andere Möglichkeiten,
Kosten zu bewerten, wie sähe dann der optimale Pfad
aus; dann: was gibt es für Möglichkeiten, Gaps zu
bewerten, wie sieht eine lineare Gapscorefunktion
genau aus, wie berechnet man dann die Zellwerte (dazu
wollte er wieder die genaue Formel haben für E(i,j)),
wie ändert sich das bei konstanten Werten, was ist die
Komplexität, wie ist die bei beliebigen Funktionen
3. Blast: Algo erklären, Sensitivität (mit Formel),
was passiert, wenn man t ändert, wie funktioniert
Blast2, was passiert da mit der Seedlänge und warum
4. Blat: was ist der Unterschied zwisachen Blast2 und
Blat (im Algorithmus), Wahrscheinlichkeit für
perfekten Treffer und Treffer mit einem Mismatch (hat
Ähnlichkeit der Genome und Länge homologer Regionen
vorgegeben und wollte dann die Formel)
5.KMP: Algorithmus und Preprocessing erklären, dafür
wollte er keine Formeln wissen, auch nicht, wie man
die Z-Boxen berechnet
6.Suffixbäume: wie berechnet man mit Suffixbäumen den
längsten gemeinsamen Substring von A und B 

Nr.PrüferFach
12 Leser Prof. Bioinformatik

Protokoll

April 2004

Angenehme Prüfungsatmosphäre.

Fragen in etwa:

Biologisch:
- Transkiption/Translation
- Gene versus Proteine und Anzahl (=> Differtielles Splicing)

Algorithmisch:
- Boyer Moore, Good Suffix Rule, Bad Character Rule
- Z-Box mit Komplexität
- Bäume
- Aho Corasick mit Failure Links
- Initialisierung Gapped Free Alignment, und Dynamische programmierung
- KEIN Ukkonen

Nr.PrüferFach
22 Leser Prof. MBD / Data Warehousing

Protokoll

27.Juli 2004
-----------
HK Prüfung über die beiden "Viertel" Kurse 
Molekularbiologische Datenbanken und
Data Warehousing
-----------
Die Atmosphäre der Prüfung war locker und okay.
Leser ist ruhig, und fragt eigentlich keine fiesen Fragen.
Er bohrt auch nicht notorisch nach, wenn man mal was nicht weiß.
Und Leser hat als multimediales Feature ein Set von  Blättern mit
Aufgaben (bei mir C1P Matrix, Tabelle einer Klassifikations-
hierarchie und Containment Mapping), die man
lösen muss... (In meiner Bioinformatik Prüfung war das nicht so...)
-----------
1. Frage: mit was wollen sie anfangen?
MDB
----
- Wie funktioniert das Sequenzieren im HGP?
- Wo können beim Mappen (Bac, Yac...) Fehler auftreten?
- Was ist der Minimum Tiling Path...? (Wie wird er berechnet, Superstring
  Problem???)
- Was ist C1P (Wichtig: Permutation nicht vergessen!)
- Wo können in der C1P Matrix Fehler auftreten? (Primer falsch, Proben
   docken an mehrere Clone an, und Fehler in der Sequenzierung (Chimeren
   DNA...))
- Händigt eine Matrix aus, und man soll sagen, ob die C1P ist...
   (PQ-Alg und TSP-Hamming wurde nicht gefragt...)

DWH
----
- Komponenten eines DWH?
- Top Down vs. Bottom Up Ansatz der Schemaintegration?
- Warum keine Integration aller Daten? (Zu komplex...)
- Zeigt mir einen Zettel mit einer Klassifikationshierarchie, ich
   soll die Dimensionen, Pfade etc. zeigen. Ganz unten sind noch Namen 
   von Firmen aufgemalt. Frage dazu: Was kann man damit machen? 
   Anwort: Modellierung in eigener Dimension
- Query Containment. Was ist das? (Containment Mapping...)
- Zeigt mir einen Zettel mit zwei datalog Queries von q1(..) auf q2(..), ist das 
   q1 in q2 enthalten? (Mittels Pfeilen, die die richttige Richtung haben müssen,
   dann zeigen das q1 in q2 enthalten ist). Ist sehr ähnlich zu den
   Aufgaben im Skript, also wenn man die kann ist das Lösen auch kein
   Problem...).
- Dann zeigt er mir 2 Mappings q1' und q2, und fragt ob q1' in q2 
   enthalten ist, (2 Symbole aus q1' mappen auf ein Symbol in q1), unter
   der Bedingung, daß q2 ind q1' enthalten ist. Dann die Frage, sind die beiden 
   Mappings gleich? (Unter der Set Semantik: JA, in der SQL Semantik nein,
   weil man die verschiedenen Symbole in SQL noch gleichsetzen müsste).
   Also der Mengenbegriff in der datalog Semantik ist ein andere als
   in der SQL Semantik.
------
------
Fazit: Leser ist einer der besseren Prüfer, und zu empfehlen. Das
Skript ist teilweise etwas verwirrend und unstrukturiert, aber auch hier gibt
es Skripten, die viel viel schlechter sind.
Alles in allem keinen Kopf machen, ruhig bleiben und alles wird gut..










Nr.PrüferFach
36 Leser Prof. MBD / Data Warehousing

Protokoll

Pruefungsprotokoll zur kombinierten Halbkurspruefung der Viertelkurse
Datawarehousing und Molekularbiologische Datenbanken:

Pruefer: Prof. Dr. Ulf Leser
Beisitzer: A. Nonym
----------------------------

Die Atmosphaere war sehr locker und angenehm.
Vor der Pruefung wurde noch etwas ueber die Schule und das Nebenfach geplaudert.
Der Beisitzer hat waehrend der Pruefung nur Notizen gemacht, nichts gesagt.

1. Frage:
Womit möchten sie anfangen, Mol-DB oder  Datawarehousing? Antwort: Mol-DB

Mol-DB:
-------
- Welche Datenmodelle gibt es? (Entry-based, Relationales
  Modell (E/R), objektorientiertes Modell (UML), XML)
- Welche Moeglichkeiten gibt es ein objektorientiertes 
  Modell in ein relationales Modell zu ueberfuehren (UML -> 
  RDBMS)?
- Wie funktioniert Sequenzierung?
- Was sind die weiteren Verarbeitungsschritte? (Base 
  Calling, Assembly, Finishing)
- Was macht Assembly?

Datawarehousing:
----------------
- Was sind materialized Views?
- Was ist Query Containment? (Containment Mapping)
- Wann liegt Containment Mapping vor? 
- Er gibt mir einen Zettel mit zwei Query

Nr.PrüferFach
40 Leser Prof. MBD / Data Warehousing

Protokoll

August 2004

Prof. Leser wirkte sehr entspannt.
Gespräch hatte erstmal gar nichts mit der Prüfung zu tun.
Aber dann

MDB-Teil:
-Welche verschiedenen Modelle gibt es für 
 molekularbiologische Datenbanken?
(Entry-Based, Relational, UML, XML)
-Was ist UML? Wie wird dieses Modell in ein relationales 
 umgesetzt?
-Wie funktioniert Sequenzierung? 
Was braucht man alles? (Sequenz,Primer,desoxy-Nucleotide,
 farblich markierte didesoxy-Nucleotide,Polymerase)
Warum bindet der Primer genau an der Stelle vor dem zu 
 sequenzierenden Teil?
 (Weil man ja die Sequenz vom Primer kennt :-) )
-Was kommt danach?
(Base Calling, Assembly, Finishing)
Was passiert beim Base Calling? (Laser, Signalverarbeitung)
Wieviele Kurven sieht man? (vier, für jeden 
 Lichtwellenlänge eine) 
Was steht an den Achsen? (x-Achse: Zeit, y-Achse:
 Lichtintensität)
-Was passiert beim Finishing? 
 (Löcher zumachen, Redandanz erzeugen, Sequenzierung 
  öfters wiederholen, um sicherere Ergebnisse zu bekommen)

DWH-Teil:
-Was heißt OLAP und OLTP?
-Eigenschaften von OLAP?
-Stellt eine Textaufgabe: Kachelmann hat eine 
 Wetterstation und möchte bestimmte Fragen beatwortet 
 haben.
-Soll ein Snowflakeschema aufmalen (Fakt=Messen, 
 Dimensionen=Ort,Zeit.
 Messung soll halbstündig erfolgen (also noch für die  
 Dimension Zeit zusätzliche Stufe: Std.)
-Soll Query auf diesem Schema aufschreiben 
 (Bedingungen habe ich vergessen. War aber nicht schwer)
-Soll noch eine Query auf Schreiben, die von den 
 Bedingungen etwas schwerer ist Messungen pro Tag,
 Monat,Jahr.
(Lösung: Rollup)

Nr.PrüferFach
51 Leser Prof. MBD / Data Warehousing

Protokoll

Molekulare Datenbanken und Datawarehouse
22.10.04

Molekulare Datenbanken
  -Lineare, hierachische Versionierung erklären sie ? 
  -WelcheVersionierungsArten kennen sie?
    *SingleTable und Schattentabellen. Noch kurze Erklärung    
    *dazu.
  -Welches Attribut ist überflüssig bei SingleTable ?
    *VersionsAttribut, weil wir Timestamp haben
  -Lineare Versionierung mit SingleTable. Welche Attribute
   muss man hinzufügen um auch noch zu wissen bis wann ein
   Tupel gültig war ?
    *Noch ein Attribut ValidUntil hinzufügen.
  -Fragen zu den Triggern die man dann anlegen sollte.
  -Was ist C1P
    *Definition von C1P, Permutationen nicht vergessen.
  -Ist diese Matrix C1P ? Zeigt mir eine Matrix
  -Haben zirkuläres Chromosom einer Bakterie, was müssen wir
   bei C1P Matrix noch beachten ?
    *(Mmmh). Erste und letzte Spalte der Matrix muss auch   
     C1P Bedingung genügen. Erster und letzter Marker liegen
     ja nebeneinander.  
  -Laufzeit von PQ Algorithmus und Eigenschaften
    *linear aber nicht erweiterbar auf fehlerhafte Daten
  -Was sind "Fehlerhaft Ergebnisse" ?
    *false Positive/Negative, Chimeric Clones 
  -Was sind Chimeric Clones ?
    *(Mmmhh)Ein Clon der Fragmente aus einem anderen Clon
     enthält, oder so.

DataWareHouse
  -Was ist OLAP/OLTP mit Eigenschaften ?
  -Snowflake Schema modellieren eines DataWareHouse.
   Textaufgabe. Gibt mir Dimensionen etc. vor.
  -2 Queries anhand dieses Schema aufschrieben.
   Die 2.te war mit einer MDX Rollup Gruppierung zu 
   beantworten.
  -Was ist besser an "MDX Rollup" im Gegensatz zu einer
   herkömlichen Query
    *Bei normalen Query muss man Faktentabelle sehr oft
     durchgehen und UNIONS durchführen. MDX Output schöner
  -Wie viele Zwischenergebnisse muss man bei herkömmlicher  
   Query zwischenspeichern ?
  -Und bei der MDX Variante ?
  *Letzten 3 Fragen haben sich alle auf die 2te Query
   bezogen*
    
Note: 1,3

Nr.PrüferFach
52 Leser Prof. MBD / Data Warehousing

Protokoll

August 2004

MDB
---

Was ist Objektrelationales Mapping?
Wie funktioniert es genau?
Welches ist die speicherplatzeffizienteste Variante des ORM?
Funktioniert ORM auch bei Mehrfachvererbung?

Wie läuft Sequenzierung genau ab?

Was ist C1P (Definition)?
Gibt eine Matrix vor. Ist diese Matrix C1P?
Wie komplex ist die C1P-Bestimmung für eine Matrix?
Welche Fehler können bei der Kartierung auftreten?
Wie sieht man diese in der Matrix?
Was ändert sich bei C1P Definition für runde Bakteriengenome?
 

DWH
---

OLTP vs. OLAP?

Was sind Oversized Indexe?
Wozu braucht man diese?

Was ist ein Bitmap-Index?
Wann lohnt sich dieser?
Konkretes Bsp.: Lohnt sich Bitmap-Index hier?
Was braucht weniger Speicherplatz: ein zusammengesetzter BI oder 2 einzelne BIs?
Wie ist der verbrauchte Speicherplatz und repräsentierte Bereich für ein gegebenes Bsp. einer anderen Zahlenbasis?
Zwei konkrete Bsp. für andere Zahlenbasen umrechnen ins Dezimalsystem.


Insgesamt lief die Prüfung ziemlich gut.
Herr Leser stellt die Fragen präzise, so dass man sofort weiss was er will.
Außerdem lässt er einem genug Zeit zum Antworten.

Nr.PrüferFach
65 Leser Prof. MBD / Data Warehousing

Protokoll

es war eine kombi-prüfung datawarehousing und molekularbiologische datenbanken

prüfer und beisitzer (A. Nonym) waren recht locker, wobei der beisitzer halt nichts gesagt hat ...
atmosphäre war dementsprechent supi - die beste die ich bis jetzt erlebt habe - kenne aber nur den vergleich zu fischer und freytag ...

fragten:
mbio-dbs:
* welche datenmodelle gibt es und kurze characterisierung (genauer beim entry-basierten model)
* objektrelationales mapping beschreiben + was ist günstiger für welche art anfragen + wo gibt

Nr.PrüferFach
80 Leser Prof. Bioinformatik

Protokoll

Datum der Prüfung:
März 2005

Benötigte Lernzeit als Empfehlung:
10 Tage 

Verwendete Materialien:
Skript eignet sich sehr gut zum Lernen

"Atmosphäre" der Prüfung / Verhalten der Beisitzer:
entspannte Atmosphäre
Fragen gingen zwar in die Tiefe aber mit Hilfestellungen

Prüfungsfragen
Boyer Moore:
musste an einem Beispiel BCR und GSR erklären 
Laufzeit
worst case / average case

Keyword Tree:
Prinzipien erläutern
Laufzeit

Phylogenetische Bäume:
Fitch, Sankoff, Characterbasierte Verfahren,
Distanzbasierte Verfahren, ...

Note:
1.3

Fazit:
Prof.Leser bewertet sehr fair
Beweise wurden nicht abgefragt
Fragen zum Thema ergeben sich aus dem Zusammenhang
biologische Fragen fielen kaum

Nr.PrüferFach
81 Leser Prof. Bioinformatik

Protokoll

Prüfung: Algorithmische Bioinformatik
Prüfung über das WS 2004/05
Prüfer: Prof. Dr. Leser
Note: 2,3

Dies Prüfung war ein Worst-Case für mich. Prof. Leser hat so
ziemlich genau das gefragt, was ich nicht wusste.

Zunächst gab es etwas Smalltalk über das Studium. (Welches
Semester sind Sie? ...)

Dann konnte ich mir aussuchen, womit ich anfange:
Ich wählte exaktes Matching bzw. allgemein den Stoff in 
VL-Reihenfolge.

-KMP 
 (inkl. Korrektheitsbeweis)
-Keyword Trees 
 (inkl. Output-Links und Konstruktion der Failure-Links)
-kurze Frage zu Suffixbäumen
-Aho Corasick
-PAM
-Blat
-Blast
-Quasar
-Phylogenetische Bäume

Prof. Leser sagte, im letzten Jahr kam halt vieles nicht
dran wegen des Streiks, und daher hätte man nicht zu sehr 
auf die Prüfungsprotokolle vertrauen sollen...

P.S.:

Statt Quasar kann es auch Clustal W gewesen sein - 
ich weiß es nicht mehr.

Nr.PrüferFach
82 Leser Prof. MBD / Data Warehousing

Protokoll

Prüfung: Data Warehousing/ Molekularbiologische Datenbanken
Prüfung über das SS 2004
Prüfer: Prof. Dr. Leser
Beisitzerin:  MSc, Dipl-Ing. (FH) A. Nonym
Dauer: ca. 10 min. Gespräch, dass nichts mit der Prüfung zu
       tun hat, Prüfung selber ca. 30 min.
Note: 1,0


An folgendes kann ich mich erinnern:
       
1. DWH

-Komponenten eines DWH (aufmalen)
-Unterschied herkömmliche/ multidimensionale Modellierung
-Ich bekomme eine Klassifikationshierarchie vorgelegt.
   -Was sind die Dimensionen?
   -Was macht man mit den Marken in der letzten Zeile? 
   -Was sind die Knoten?
   -Was ist eine Granularität darin?
-Was für Arten von Aggregatsfunktionen gibt es? 
   -Wie unterscheiden sie sich?
   -Beispiele?
-Was ist Query Containment?
    -Wie prüft man das?
    -Ich bekomme zwei Querys vorgelegt.
       -Ist die eine in der anderen enthalten? (CM angeben)
       -Wann sind zwei Querys äquivalent? 
       -Sind sie äquivalent?
       -Noch zwei Querys... sind diese äquivalent?
       (CM aufmalen)
       -Werden diese beiden äquivalenten Querys das gleiche
        Ergebnis in Oracle oder PostGres erzeugen?


2. MDB

-Wie sequenziert man?
-Was erhält man?
-Was kommt dann?
-Wie werden beim Finishing die Lücken gefüllt?
-Objekt-relationales Mapping: Wie wird Vererbung im 
 UML-Modell in ein Relationenschema übersetzt?
-Angenommen, wir haben Mehrfachvererbung. (nicht im Skript!)
   -Welche der 4 Möglichkeiten lassen sich dann leicht 
    umsetzen?
   -Welche schwer und warum?
   -Damit zusammenhängend: Was sind Trigger?


Die Atmosphäre war angenehm. 
Prof. Leser stellt größtenteils keine fiesen Fragen und geht
nicht allzusehr ins Detail. Außerdem legt er kaum Wert auf 
Formalismen. Zwei, drei überraschende Fragen waren aber doch dabei.
Prof. Leser lässt einen nicht "ins Unglück" rennen. Wenn man 
etwas richtiges gesagt hat, bestätigt er es, so dass man 
sich sicher sein kann, dass es auch richtig war.

Nr.PrüferFach
85 Leser Prof. Bioinformatik

Protokoll

pruefer: leser
fach: algorithmische bioinformatik
lernzeit: ca. 10 tage
materialien: folien+web

ruhige athmosphäre/freundlicher prüfer

prüfung:
-nenne algorithmen für exaktes stringmatching
-z-box-algo erklären:
 -was ist eine zbox
 -lineare konstr. der zboxen
 -wie suche mit zbox + komplexität
-kmp-algo erklären:
 -wie suche
 -was ist sp`
 -komplexität
-boyer-moore-algo erklären:
 -good suffix rule erklären
 -wie suchen + komplexität
 -fall für schnellste laufzeit des algos
-multiple sequenz alignment + sum of pairs:
 -erklären
 -wie berechnen
-evolutionary clock theory:
 -erklären
 -wo angewendet
-ultrametr. matrizen:
 -definition
 -ultrametr. baum bauen (upgma)
 -korrektheit des baumes anhand der matrix zeigen
-maximum parsimony:
 -leider geshiftet  :-( 
 -annahme kommt nicht dran -> fehlannahme
-KEIN UKKONEN:
 -danke!

note: nicht so gut, wegen shiften
bewertung: absolut faire prüfung
ps: konzentration nur auf algorithm. part der vorlesung

Nr.PrüferFach
86 Leser Prof. Bioinformatik

Protokoll

ruhige, entspannte Athmosphäre, 
zwei Beisitzer (einer davon „zum anlernen“), 
die aber nichts  gesagt haben    

Themen:  
- KMP (ohne Formeln, nur Suche erklären)  
- Keyword Trees (Beispielbaum bauen, Komplexität, Failure, Output Links 
erklären)  
- Suffix Trees (Unterschied zu Keyword Trees erklären)  
- Alignments (Unterschied lokales – globales, Anwendung, Tabelle für dyn. 
Programmierung  skizzieren)  
- Gapscorefunktionen (aufzählen, Komplexität und Berechnung lineare, 
konstante Gapscores)  
- MSA definieren  
- Phylogenie (Verfahren aufzählen (Ultrametrik, additiv, characterbasiert), - 
Algorithmen nennen  (Fitch, Sankoff, ohne Erklärung, wollte nur die Namen 
hören), 
- Unterschied zwischen Small  und Large Parsimony erklären)    

Fazit: Lief ziemlich gut (1,3), obwohl ich nicht damit gerechnet hätte. Wenn 
man Antworten  nicht weiß, einfach zugeben, dann wechselt er das Thema 
und man kann vielleicht mit was  anderem glänzen.  :)

Nr.PrüferFach
107 Leser Prof. Bioinformatik

Protokoll

=Datum der Prüfung
April 2005

= Benötigte Lernzeit als Empfehlung
14 Tage

= Verwendete Materialien (Bücher, Skripte etc...)
Die Folien der VL sind sehr gut und reichen völlig aus zur 
Vorbereitung.

= "Atmosphäre" der Prüfung / Verhalten der Beisitzer
Sehr angenehme Atmosphäre. Auflockerung durch anfänglichen 
Small-Talk über Studium und Interessen. Beisitzerin 
S.Trissl hat nur protokolliert/keine Fragen ihrerseits.

= Prüfungsfragen
1) Z-Box-Algorithmus
2) Boyer-Moore-Algorithmus
3) KMP-Algorithmus
(alle drei mit mehr oder weniger detaillierten 
Korrektheitsbeweisen)
4) Phylogenetische Verfahren aufzählen 
5) Small und Large Parsimony erklären
6) Fitch und Sankoff Unterschiede (Vollständigkeit, 
Korrektheit)

= Note
Lief sehr gut. (1.3)

= Fazit
Herr Leser ist sehr fair und gibt oft Hilfestellungen. Er 
versucht ab und zu durch kleinere "Fangfragen" 
herauszubekommen, ob man das Thema wirklich verstanden hat 
(Was passiert, wenn man jetzt...?). Es ist wichtiger, das 
Prinzip/den Trick des Algorithmus verstanden zu haben, als 
jedes einzelne Detail. Aufzeichnen hilft oft als 
Erklärungsvariante und hilft einem selbst auch beim Fragen 
beantworten!

Nr.PrüferFach
108 Leser Prof. Bioinformatik

Protokoll

= Datum der Prüfung
April 2005

= Benötigte Lernzeit als Empfehlung
11 Tage, die man aber auch durchziehen sollte: 
mehr Tage -> weniger Stress

= Verwendete Materialien (Bücher, Skripte etc...)
Skript(recht gut gemacht) und Gusfield(zum Nachschlagen)

= "Atmosphäre" der Prüfung / Verhalten der Beisitzer
Gefragt hat nur Prof.Leser, Beisitzerin A. Nonym hat keine
Fragen gestellt. Die Atmosphäre war sehr gut, und recht
locker. Vor der Prüfung gabs ein kurzes Gespräch über
bisherigen Prüfungen und zum Nebenfach.

= Prüfungsfragen
-Eigenschaften von Suffixbäumen
-wie findet man maximale gemeinsame Substrings
-wie ist die Tiefe eines Knotens definiert
-sehr grober Überblick über Ukonnen(<- war mein Vorschlag 
am Anfang; wird sonst nicht geprüft, meinte er)
-Möglichkeiten den Platzverbruach von Suffixbäumen zu
minimieren (Platzverbrauch an Knoten, Suffixarrays, 
Partitionen)
-Editabstände: bei linearen&konstanten Gaps
-MSA, was ist das, wie kommt O(2^n*n^k) Zustande
-welche Möglichkeiten gibt es noch zu alignieren(bei MSA)
-Phylogenetische Bäume: Unterschied zw. Large und Small
Parsimony, welche Möglichkeiten gibt es bei large Parsimony
-average und worst case bei Boyer-Morre, KMP ect.

= Note :1.0
= Fazit 
Die Prüfung verlief recht angenehm, wie die anderen hier in
der Liste schon beschrieben haben. Man konnte ein Thema
vorschlagen mit dem es losgehen sollte, und Prof.Leser hat
viele Hilfestellungen gegeben, wenn man nicht drauf kam.

Nr.PrüferFach
115 Leser Prof. DBS2 - Implementation von Datenbanken

Protokoll

Datum der Prüfung: 
-02.08.2005

Lernzeit: 
-knapp 2 Wochen

Verwendete Materialien: 
-Foliensatz zur Vorlesung + Datenbanken -
 Implementierungstechniken (Saake, Heuer, Sattler)

"Atmosphäre" der Prüfung / Verhalten der Beisitzer
-erst ein bissel Smalltalk zur Entspannung
-es gab Wasser und M&Ms 
-die Atmosphäre war wirklich locker
-die Beisitzerin war nett und hielt sich im Hintergrund

Prüfungsfragen
-angefangen wurde mit den Speicherhierarchien (Cache, RAM,
 Festplatte, Bandroboter)
-von Backup der Bandroboter sind wir dann zu Recovery   
 gekommen
-erst wieder allgemein, was ist Recovery, was macht es, hier
 wollte er eine Definition hören (Konsistenz der  
 Datenbank...)
-dann ein wenig das Logfile erklären, sowie Undo/Redo
 Recovery erklären
-als nächstes dürfte ich mir einen Multidimensionales Index
 aussuchen und erklären --> Grid File im Detail mit Vor- und
 Nachteilen
-dazu nen Vergleich vom Grid-File und kd/b Baum
-danach noch ein wenig R-Tree erläutern
-zum Abschluss allgemein Query Abarbeitung ( SQL, Parsen,
 Operator Tree, Optimierung)
-anhand einer Beispielquery erklären, kurze IO Abschätzung,
 verschiedene Szenarien (zu wenig RAM)

Note: 2.0


Fazit:
-nette, entspannte Prüfung
-bei Schwächen wird eine Zeit lang nachgehakt
-Bewertung halte ich für sehr fair

Nr.PrüferFach
116 Leser Prof. DBS2 - Implementation von Datenbanken

Protokoll

= Datum der Prüfung

3. August 2005, 10 Uhr

= Benötigte Lernzeit als Empfehlung

Das kann man ja allgemein nicht sagen, hängt von einem
selber ab. Ich hatte mir am Tag vorher nochmal die Folien
angeguckt und sonst in der Vorlesung größtenteils gut
aufgepasst.

= Verwendete Materialien (Bücher, Skripte etc...)

Vorlesung und Folien.

= "Atmosphäre" der Prüfung / Verhalten der Beisitzer

Locker, kein Problem. Aber fordernd. Beisitzer hat in der
Prüfung selbst nichts gesagt.

= Prüfungsfragen

B-Baum: was, wie, Operationen, Höhe, Füllgrad. Vergleich mit
Binärbaum.

Join-Algorithmen: Index-Join, Hash-Join, Hybrid-Hash-Join,
Sort-Merge-Join. Wichtig: Komplexität der Algorithmen wissen
und erklären können. Da habe ich viel rumgestammelt und
nicht gewußt.

SQL-Query hingeschrieben, (naiven) Operatorbaum aufmalen,
Optimierungen aufzeigen. Übergang zur

Optimierung der Join-Reihenfolge: wie (dyn. Progr.), was ist
mit Kreuzprodukten, Left-deep-Trees vs. Bushy-Trees.
Spezialfrage: Aufzählung aller Join-Trees, inkl. Bushy-Trees
(kam nicht in der VL): Ind.-Vor: Alle optimalen Join-Trees
für k Rel. sind aufgezählt. Ind.-Schritt: Optimalen Tree
raussuchen aus allen Joins aus Join-Tree A und B mit |A| +
|B| = k + 1 und A geschnitten B = leer.

= Note (Optional)
2,0

= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)

Ich fands gut und angemessen. Man hat nicht viel Zeit,
nachzudenken, die Prüfung ist schneller vorbei als du
Blaubeerkuchen sagen kannst. Daher sollte der Stoff sitzen.

Nr.PrüferFach
137 Leser Prof. DBS2 - Implementation von Datenbanken

Protokoll

= Datum der Prüfung
24.10.2005
= Benötigte Lernzeit als Empfehlung
3 Tage

= Verwendete Materialien (Bücher, Skripte etc...)
aus Folien Zusammenfassung geschrieben, WWW, empfohlene 
Literatur 

= "Atmosphäre" der Prüfung / Verhalten der Beisitzer
- kleiner Talk am Anfag
- Beisitzer hat nur Protokoll geführt

= Prüfungsfragen
- durfte mir ein Thema wählen
  - Recovery/Logging
    - Undo, Redo, Undo/Redo, Recovery, Checkpointing
      alles erklären    
    - diverse tiefgehende Fragen zu diesem Thema
    - viel zum Zusammenhang und globalen Kontext 
      gefragt/erzählt (Transaktionen, Konsistens der DB,...)
    - man sollte sich richtig gut mit dem Eistiegsthema
      auskennen und viel von sich aus erzählen

- Prof. Leser schrieb Query auf und meinte daran arbeiten
  wir bis zum Schluß
  - Query war mit Subselect, also Umformen
  - Operatorbaum aufschreiben (habe noch was von 
    Optimierung erzählt und was man machen kann/sollte)
  - er gab mir dann Kardinalitäten und Selektivitäten
  - berechen die Ergebnisstupel (war nicht ganz so einfach,  
    war keine Dynamische Programierung wie in der VL.)
  - anderen Operatorbaum für die Query aufschreiben und 
    wieder Ergebnistupel und Zwischenergebnisse berechnen
  - jetzt entscheiden welcher Plan besser ist

= Note (Optional)
1,3

= Fazit (Gute/schlechte Prüfung)
Prüfung lief super. Prof. Leser hat immer mal wieder einige 
knifflige Fragen gestellt. Ich habe viel von mir aus 
erzählt. Er hat einige Fragen zum Verständniss gestellt und 
einige um die Prüfung in seine Richtung zu lenken. Wenn man 
viel von sich aus erzählt, dann fragt er nur noch 
vereinzelt, damit man auch wirklich alles abdekt. Ich wusste 
mal auch wenige Kleinigkeiten nicht, war wohl angesichts der 
Note nicht so schlimm.

Nr.PrüferFach
228 Leser Prof. Informationsintegration

Protokoll

= Datum der Prüfung
26.02.07

= Benötigte Lernzeit als Empfehlung
ohne Stress 14 Tage

= Verwendete Materialien (Bücher, Skripte etc...)
Folien, Internet

"Atmosphäre" der Prüfung / Verhalten der Beisitzer:
Atmosphäre war sehr angenehm, kurzes Gespräch über
bisheriges Studium und Studienarbeiten, will auch genau
wissen, woher er dich sonst noch kennt.
Beisitzer war Dirk Fahland, hat aber nichts gesagt (war auch
seine Premiere).

= Prüfungsfragen
1. Dimensionen der Informationsintegration 
(Autonomie, Verteilung, Heterogenität)
Verteilung: was gibts da? warum macht man das?
Heterogenität: welche Arten? (6), was ist schematische H.?
Transparenz: welche Arten? warum ist das nicht unbedingt
gewollt?

2. Korrespondenzen
welche Arten? (GaV, LaV, GLaV)
welche Typen? (Exklusion, Inklusion, Äquivalenz, Überlappung)
warum ist Überlappung nicht erwünscht? (liefert keine
korrekte Antwort auf globale Anfrage)

3. Query Containment
Wann ist ein Plan semantisch korrekt? (Extension muss in q
enthalten sein)
Was ist Containmentmapping? (Symbolmapping, Regeln)
Depth-First Algo.: wie funktioniert das? Partielles CM?
Was ist der Unterschied zwischen Set- und Bag-Semantik?
(Anfrageplanung geht, CM nicht)

4. Anfrageoptimierung
Was ist ein Semi-Join? Wie? Warum? Definition?
Welche Varianten? (Join in Quellen/Mediator)
Was ist ein Bloomfilter? Vorteile/Nachteile? (geringer
Netzwerkverkehr/zusätzliche vermeintliche Jointupel)
Was macht ein Full Reducer? Komplexität bei linearen FR?
(linear)
Wann gibt es einen FR? (azyklisch ja,zyklisch nein)

= Note
1.3

= Fazit
Im Ganzen eine sehr nette und faire Prüfung. Obwohl es eine
halbe Stunde war, ging die Zeit im nu vorbei. Prof. Leser
hilft auch bei Fragen, um die Antwort doch zu entlocken und
bestätigt auch wenn was richtig oder vorher schonmal richtig
gesagt wurde. Aufhänger war bei mir die Set- und
Bagsemantik, was etwas Verunsicherung reinbrachte, Prof.
Leser hat bei der Bewertung aber darüber hinweggesehn und
eher das vorhandene Wissen bewertet. An sich eine sehr
angemessene Bewertung.

Nr.PrüferFach
233 Leser Prof. Informationsintegration

Protokoll

* Prüfung am 20.2.2007 bei Ulf Leser
* schon während der VL-Zeit eine Ausarbeitung zu jeder VL erstellt, ca. 50h
* noch einmal 2 Tage zum wiederholen
* nur aus dem Skript gelernt

Prüfung:
* erst einmal sollte ich kurz AEI erklären und es von der in der VL behandelten 
Integration abgrenzen
* als nächstes sollte ich die 3 Dimensionen von Quellen aufzählen und eine 
meiner Wahl erläutern (habe mich für Verteilung entschieden)
* als nächstes Query Containment: Was ist das? Was sind Containment 
Mappings? Warum ist die naive Variante zu langsam? Welche Idee liegt Depth 
First zugrunde? Was ist ein partielles CM? usw.
* als nächtes sollte ich Frozen Facts anhand eines Beispiels erklären
* als letztes sollte ich die Algorithmen zu Schema Integration nennen und einen 
meiner Wahl genauer erklären (habe mich für General Integration Model mit der 
GIM Matrix entschieden)

Fazit: Bin zufrieden.  Prüfungen bei Prof. Leser finden immer in entspannter 
Atmosphäre statt: Mehr ein Gespräch, denn eine Prüfung.

Nr.PrüferFach
243 Leser Prof. Informationsintegration

Protokoll

= Datum der Prüfung
02.04.07


= Benötigte Lernzeit als Empfehlung
2 Wochen... mehr Zeit, weniger Stress...


= Verwendete Materialien (Bücher, Skripte etc...)
Folien, Internet


= "Atmosphäre" der Prüfung / Verhalten der Beisitzer
Angenehme Atmosphäre wie immer... diesmal wurde Kaffee
anstatt Süßigkeiten angeboten... die ersten 10 Minuten 
wurde über das Studium geredet... Beisitzer war recht still.


= Prüfungsfragen

1. Architekturen

Welche Kriterien? 
Welche Architekturen lassen sich daraus ableiten? (~ 3 Bsp.)
Unterschied zwischen den Architekturen DWH und Mediator.
Wie heißt der Integrationsprozess beim DWH?
5-Schichten-Architektur erläutern (Schichten nennen).


2. Korrespondenzen

Was ist das? Definition...
Frozen-Facts-Algorithmus am Bsp erläutern.
CM definieren.


3. Semi-Join

Definition...
Wozu dient das?
Semi-Join-Programm definieren.
Reducer, Fullreducer erklären.
Wann gibt es einen Fullreducer?
Wann ist eine Anfrage azyklisch?
Zur gegebener Anfrage Hypergraphen zeichnen. Entscheiden, ob
 dieser azyklisch ist. Anfrage verändern, so dass diese 
zyklisch wird.


4. Anfrageberabeitung

Die 5 Schritte nennen. Den ersten genauer an einem Bsp.
 erläutern.


= Note (Optional)
1.7


= Fazit (Gute/schlechte Prüfung , angemessene Benotung)
Prüfung war ok. Benotung wie immer sehr fair.

Nr.PrüferFach
249 Leser Prof. Informationsintegration

Protokoll

= Datum der Pruefung
11.04.2007
= Benoetigte Lernzeit als Empfehlung
Selbst brauchte mindestens vier Wochen.
Je nachdem wie gut man in der VL alles verstanden hat
und wie diszipliniert man lernt, vielleicht auch in weniger
moeglich. 
Allein zum aktiven Durchlesen der Folien knapp eine Woche
benoetigt (5 Tage). 
Wenn man mit den anderen Protokollen vergleicht, bin ich
aber eher langsam.
Nichtsdestotrotz ist es schon eine Menge Stoff, nicht (nur)
auswendig-lerntechnisch sondern auch zum Ueben und verstehen. 
Besser schon waehrend der VL intensiv mitmachen!

= Verwendete Materialien (Bücher, Skripte etc...)
Vorwiegend VL Folien.
Bücher: Informationsintegration von Ulf Leser und Felix A. Nonym 
fuer Ueberblick, Elmasri & Navathe Fundamentals of Database
Systems fuer 
Wiederholung und Nachschlagen DB Grundlagen, 
Ausschnitte aus Buecher zum jeweiligen Kapitel 
(z.B. Anfrageoptimierung: Dadam Verteilte Datenbanken und
Client/Server System ...). 
Auszugweise Paper zu den jeweiligen Kapiteln(auf jeden Fall
empfehlenswert solange ihr noch Uni-Zugang habt ;o) 
bei Verstaendnisproblemen. 

= "Atmosphäre" der Prüfung / Verhalten der Beisitzer
Sehr wohlwollend. Gehen gut auf Situation ein. 
Ich war pathologisch aufgeregt. Pruefer und Beisitzerin
professionel 
damit umgegangen. Aus dieser Sicht eine der besten Pruefungen 
die ich hatte. 
Vor der Pruefung auch erstmal Gespraech ueber bisherige
Veranstaltungen usw.

= Prüfungsfragen
1. Was fuer Arten der Verteilung(physische, logische) gibt es, 
   Gruende(Sicherheit, Performance, aber auch ungewollt
wegen Autonomie...)
   Partitionierung(horizontale, vertikale) etc.
2. Welche (Unter-)Arten der Heterogenitaet, 
   bei struktureller/schematischer H. und deren
   Definition dann Uebergang zu 
   Multidatebanken u. 4-Schichten-Arch.
   Hab erstmal 5-Schichten aufgemalt, um zu zeigen was
anders ist. 
   Kein foederiertes Schema, Nutzer integrieren selbst 
   und da waren wir auch schon bei
Multidatenbanksprachen/SchemaSQL
   Was kann SchemaSQL, was ist anders als SQL. Ueber welche
Elemente
   kann man iterieren. Ist es exakt abwaertskompatibel zu
SQL usw.
   
3. Beispiele SchemaSQL:
   Zum Aufwaermen erstmal Aufgabe etwas verschieden zu
modellieren.
   Einmal gleichen Sachverhalt als Wert, als Attribut, Relation.

   Dann Selektions-Aufgabe, dann Aggregationsaufgabe an
einfachem Beispiel.
   
   Wie wird SchemaSQL implementiert. 
   Die Anfrage aus SchemaSQL in eine SQL-Anfrage ueberfuehren
   (VIT usw.).

4. Anfrageoptimiertung
 Was fuer Techniken haben wir kennengelernt (Join Order mit
DP, SemiJoin ...) 
. Eine davon genauer erklaeren. Hab DP erklaert. 
  Warum gilt Optimalitaetskriterium fuer verteilte DB
eigentlich nicht. 
  Was haben wir dabei fuer eine Heuristik...

5. Duplikaterkennung: Def. Duplikat, was vergleicht man,
Aehnlichkeitsmasse,
SortedNeighborhood, Komplexitaet SNR, wie kommt sie zustande, 
wie kann man sie verbessern(Multipass).

= Note (Optional)
2.3

= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)
Sehr faire Pruefung. Hatte bei SchemaSQL ein paar groebere
Schnitzer und gestrauchelt. Dadurch viel Zeit fuer andere
Gebiete verloren.

In der Aufregung auch an anderen Stellen ein paar duemmere
Sachen gesagt, 
die man mir haette weitaus boeser auslegen koennen. 
Hatte zwar viel und langfristig gelernt, aber trotzdem zu
spaet damit 
aufgehoert. Bei der Pruefung hat dann einfach die
Energie/Konzentration gefehlt.

Nr.PrüferFach
257 Leser Prof. Bioinformatik

Protokoll

= Datum der Prüfung
12.04.2007

= Benötigte Lernzeit als  Empfehlung
2 Wochen, ist fast zu knapp

= Verwendete Materialien  (Bücher, Skripte etc...)
VL-Folien, Gusfield, Internet

= "Atmosphäre" der Prüfung /  Verhalten der Beisitzer
sachlich und professionell (pünktlich, freundlich, Getränke  und Snacks im Angebot)

= Prüfungsfragen
Zwei Gerüchte die offensichtlich nicht immer stimmen:  
1. Biologische Fragen fallen eben doch
2. Das Startthema kann man sich nicht immer aussuchen  

Die Fragen:  
1. Wie wird aus einem Gen ein Protein?  das wollte er schon genauer wissen als ich es wusste  
2. Z-Box  die Fakten aus den Folien(komplexität,z-werte,l,r...)  man sollte das aber unbedingt mal per Hand gemacht haben,  ich konnte das dann nicht und musste leider shiften  
3.Keyword trees mit beispiel durchexerzieren  
4.Aproximatives matching  -editabstand  -Rekursionsgleichung (sehr detailliert)  -Komplexität Hyperwürfel erklären ((2^k-1)*n^k)  
5.BLAST  -Parameter  -Effekt beim Schwellwert verändern  -BLAST2  
und die Zeit war um (30 min.)    

= Note
3.0

= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)
Die Prüfung fing ziemlich schlecht an, da ich nicht mit der   biologischen Einstiegsfrage gerechnet habe.  Auch die Z-Boxgeschichte war sehr unangenehm.  Ich habe darauf spekuliert, dass ich die Startfrage selbst  wählen könne und demzufolge leider ein paar Lernlücken  gehabt.  Aber im Gegensatz zu allen anderen meiner bisherigen   Prüfungen lief es von Frage zu Frage besser, was wirklich  für den Prüfer spricht, er blieb sachlich und war nicht  persönlich angegriffen durch meine Lücken, was man nicht  von allen Profs behaupten kann.  Fazit: Guter Prüfer, der sich aber nicht hinters Licht  führen lässt=>alles lernen      

Nr.PrüferFach
272 Leser Prof. Data Warehousing und Data Mining

Protokoll

= Datum der Prüfung

August 2007


= Benötigte Lernzeit als Empfehlung

habe es mit 10 Tagen versucht, war aber zu wenig ->
mindestens 14 Tage


= Verwendete Materialien (Bücher, Skripte etc...)

Folien, Google


= "Atmosphäre" der Prüfung / Verhalten der Beisitzer

Alles recht entspannt, Beisitzer hat nichts gesagt :)
Ersten 5 bis 10 min reden übers eigene Studium etc


= Prüfungsfragen

- Aufbau eines DWH
- Welche Techniken werden bei ETL Prozess und beim erstellen
der Marts wo angewandt? (BULK von Quelle zu staging area,
SQL und Satzbasiert in Cube, MVs zu marts)
- Differential Snapshot Problem. Was ist das? Wie haben wir
es gelöst) (Verschiedene Algorithmen und Funktion)
- Erkläre DS mit Hashing oder mit Sortierung inklusive
Komplexität
- Indexierung: Was ist ein oversized B* Index?
- Was ist ein Bitmap Index? Warum brauchen wir ihn?
(Composite B* ist ordnungssensitiv)
- Komprimierung von Bitmap Indexen (RLE 1 und als
horizontale Komprimierung, Zahlenbasenänderung als vertikale)
- Kardinalität eines Attributes ist 34, wie viele Bitmap
Arrays braucht man bei Zahlenbasis <4,4,4> ? Wie viele
Zahlen kann man damit kodieren? 4*4*4 = 64
- Welche Clusteringmethoden haben wir besprochen?
(hierarchisches Clustern, k-Means und dichte-basiertes Clustern)
- Erklären sie dichte-basiertes Clusterm
- Aussage: Wenn Nachbarn suchen in DBSCAN linear wäre, dann
Algorithmus linear, warum?


= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)

Prüfung war in Ordnung, Note auch angemessen, hatte mir
besseres gewünscht, aber das Leben ist nunmal kein Ponyhof, ne?

Nr.PrüferFach
291 Leser Prof. Data Warehousing und Data Mining

Protokoll

= Datum der Prüfung
2.10.07

= Benötigte Lernzeit als Empfehlung
1,5 Wochen mit DBI- und Maschinellem Lernen-Vorwissen

= Verwendete Materialien (Bücher, Skripte etc...)
Skript
= "Atmosphäre" der Prüfung / Verhalten der Beisitzer
- zuerst kurzes Plaudern übers Studium
- kein Streß
- man kann mehrfach nachfragen, wenn man mit einer Frage
nichts anfangen kann
- man kriegt eine weitere Chance, wenn man was falsch macht

= Prüfungsfragen
- OLTP<>OLAP
- Starschema für Wetterstationen malen, Fakten & Dimensionen
herausfinden (FDs beachten!)
- Gruppierungsanfragen stellen (GROUP BY und CUBE)
- wie funktioniert Gruppierung (Hash<>Sortieren)
- wie berechnet man Aggregatfunktionen drauf
- Clustering: welche Arten gibts
- Beschreibung Algorithmen für hierarchisches C., k-Means,
k-Medoid
- Laufzeit- und Speicherplatzabschätzungen

= Note (Optional)
1,3
= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)
faire Prüfung und faire Benotung

Nr.PrüferFach
355 Leser Prof. Bioinformatik

Protokoll

= Datum der Prüfung
Ende WiSe 07/08

(Die anderen Protokolle hier sind schon etwas älter, daher
wollte ich mal was aktuelles schreiben und andere
Wichtigkeiten loswerden...)

= Benötigte Lernzeit als Empfehlung

Vorbereitungszeit sind 7-10 Tage ausreichend. Aber
entscheidend ist, nicht nur in dieser VL sondern ganz
allgemein: "Lernzeit" ist die VL-Zeit! Die 7-10 Tage sind
Auffrischungszeit und
Mittel-und-Kurzzeit-Gedächtnis-Vollstopfzeit und nichts anderes.

= Verwendete Materialien (Bücher, Skripte etc...)

Der Foliensatz reicht aus, auch wenn man dazu in der VL
gewesen sein muss/sollte (mental!). Siehe auch oben unter
"Lernzeit". Gusfield (das in der VL empfohlene Buch) eignet
sich gut zum Gegenchecken.

= "Atmosphäre" der Prüfung / Verhalten der Beisitzer

Wie gehabt angenehm, vorher 5-10min Smalltalk zum Auflockern
und Nervosität-nehmen. Beisitzer komplett silent, lächelt
aber ständig und insbesondere wenn man versucht, witzig zu
sein. Zusammen mit ständiger Freundlichkeit des Prüfers
genau die Atmosphäre die man sich wünscht. 

(Insbesondere wenn der Vordermann rauskommt mit der
Bemerkung "auf Lücke lernen war keine gute Idee", was einen
wiederum eher bestärkt wenn man sich auf alles vorbereitet
hat..)

= Prüfungsfragen

* Einstiegsbereich war zum Selbstaussuchen, bei mir exaktes
Matching. Also Z-Box bis in`s letzte Detail, Definition,
Suche, Berechnung; hat alles eine Weile gedauert obwohl ich
dauer-geredet hab - schließlich gibt`s da einiges zu
erzählen; kleine Fangfrage ("Braucht man das `$`?");
Komplexitätsbetrachtung;

* Allgemeine Fragen rund über exakte Verfahren, also welche
kennen wir noch, wie schnell sind die, welcher ist der
schnellste, wie geht`s noch schneller im Average Case (GSR
beim BM weglassen)...

* Großer Sprung zur Gene Prediction. Was gibt es da für
Möglichkeiten, Gene zu finden (mRNA rausfischen und ESTs
angucken; alles komplett sequenzieren und HMM-Zirkus machen;
komplettes Genom mit bekanntem Genom alignieren)

* HMM, was ist das, was für Probleme gibt es und wie heißen
die jeweiligen Lösungen. Alle drei (Viterbi, Forward-Alg.,
Baum-Welch) erklären, recht detailliert insb. Viterbi.

* MSA, was gibt es da für Möglichkeiten (naiv, SoP,
Center-Star, Baum-orientiert); auf alle drei mal kurz
eingehen; SoP konkreter, d.h. wie funktioniert das Verfahren
; Komplexitätsbetrachtung dazu; ClustalW kurz überblicken.

* Distanzbasierte Phylogenie durch ClustalW nur kurz
angerissen (wie baut man z.B. einen Baum - er wollte nur die
beiden Begriffe UPGMA und Neighbo(u)r Joining hören)

* Schluss war viel früher als gedacht...

Allgemein gilt: "Detailliert" heißt nicht "Formel
hinschreiben". Es geht darum zu wissen was da passiert. Wenn
 man das erklärt, reicht das schon. Ich habe keine einzige
Formel während der ganzen Prüfung aufgeschrieben - wenn man
Details erklärt hat (z.B. Viterbi-Alg. anhand einer
abstrakten Skizze), würden die sich zwar von selbst ergeben,
aber ich habe vergebens darauf gewartet, dass er mich mal
auffordert, eine wirklich hinzuschreiben. Also: Formeln
nicht zum Hinschreiben lernen, sondern höchstens zum dran
erinnern, wie das Verfahren ging und als Double-Check.

= Note (Optional)

Sehr gut.

= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)

Prüfung lief wunderbar.. Hab einmal zu schnell geantwortet,
kurz Nachdenken hilft (siehe oben mit dem `$`, das ist da
natürlich nur aus didaktischen Gründen; mir fiel spontan
kein Grund ein warum man das braucht, aber man übersieht in
einer Prüfung ja gern mal was, daher kam mir das verdächtig
vor und ich hatte also meine Arbeitshypothese auf
`$`-Verteidigung - lies mich aber dann überzeugen, weil
seine Argumentation schlüssig klang und keine Lücke
offenbarte, die für mich ein Fingerzeig auf ein Argument für
meinen Standpunkt gewesen wäre). Ansonsten ist es ein
flüssiges Gespräch, wenn man Prof. Lesers Tempo
hinterherkommen kann und schnell genug die Stichworte und
Ideen in den Strom reinschießt die er will. (Heißt nicht,
dass er sich ggf. langsamerem Tempo anpasst, vielleicht war
ich selbst schuld...) Aber auch da wo es in die Tiefe geht
lässt er einen nicht allein sondern lässt es interaktiv,
sodass man sich nicht verzettelt. (Die Interaktivität
beinhaltet dabei sowohl Hilfen als auch versteckte Checks ob
man das da grad nur so sagt oder weiß was man redet...)

So, genug geschrieben.

Nr.PrüferFach
356 Leser Prof. Bioinformatik

Protokoll

= Datum der Prüfung
04.April 2008

= Vorlesung

Erst Mal ein paar Worte zur Vorlesung:

Das war mit Abstand die beste Vorlesung, die ich bisher an
der Humboldt Uni gehört habe. Der Stoff war eher viel als
wenig(aber hielt sich noch im Rahmen), dafür nicht
schwierig, bzw. von Prof. Leser immer dem
Schwierigkeitsniveau entsprechend vorgetragen.
Das einzige Manko waren der Umfang der Übungen, wobei es
auch am eigenen Anspruch lag bei den Wettbewerben möglichst
gut abzuschneiden und deshalb das Programmieren Ausmaße
annahmen, die diese Vorlesung zur Aufwendigsten des
Semesters machten.


= Benötigte Lernzeit als Empfehlung

Es hängt natürlich entschieden davon ab, was mensch schon im
Semester gelernt hat. Für mich wären die hier genannten
Zeiten deutlich zu gering gewesen. 10 Tage reichen für den
Stoff, auch wenn jemand schon ganz okay mitgelernt hat,
einfach nicht aus. Vor allem da Prof. Leser wirklich
potentiell alle Details abfragt. Ich habe wohl vier Wochen
gelernt, davon drei Wochen komplette Lerntage. Also für
jemanden, der gut mitgelernt hat, dürften 2 Wochen so
reichen, für jemanden, der sich den Stoff from scratch
aneignen muss, sollte eher 5+x Wochen ansetzen.


= Verwendete Materialien (Bücher, Skripte etc...)

Die Folien, für Dinge, die ich nicht verstanden hatte den
Gusfield und für den Biologie-Part Wikipedia.


= "Atmosphäre" der Prüfung / Verhalten der Beisitzer

Die Prüfung setzte die Vorlesung nahtlos fort, eine viel
entspanntere habe ich bisher nicht absolvieren dürfen.
Zuerst gab es volle 10 Minuten Smalltalk über das bisherige
Studium und die absolvierten Prüfungen(er fragte allerdings
nicht nach Noten) und die noch folgenden Vorlesungen.
Der Beisitzer notierte nur.


= Prüfungsfragen

Dann ging es los: ich durfte mir ein Thema auswählen, wo ich
mich für Boyer-Moore entschied. Ich explizierte also die
Good Suffix - und die Bad Character Rule(mit Ansprache der
EBCR, wo er dann intervenierte und mich nach den möglichen
Speicherarten fragte). Er wollte dann die
Apostolico-Giancarlo Variante grob erklärt bekommen,
verzichtete aber auf die Aufzählung der fünf Varianten.
Wollte dann aber zu meinem Leidwesen den Beweis für die
Linearität haben, den ich zwar grob skizzieren, aber nicht
so gut vortragen konnte, wie er das gerne gehabt hätte.
Dieser Teilabschnitt nahm schon einen großen Teil, so ein
Drittel der Prüfungszeit ein.
Dann gab es die allgemeine Frage, was denn jetzt der
schnellste Algorithmus für exaktes Matching ist. Die Frage
war mir zu banal, ich überlegte fieberhaft, ob er denn jetzt
auf Suffix-Trees hinaus wollte. Es dauerte also einen
kleinen Moment bis sich die Konfusion legte und ich darauf
kurz "Boyer-Moore ist sublinear im average case" sagen
konnte und auf die sich anschließende "Warum?"-Frage dies in
aller Kürze erläutern konnte. Er wollte dann von mir den
best-case für Boyer-Moore wissen und auf die Antwort folgte
die Frage nach der Laufzeit in diesem Fall.
Dann passierte etwas, womit ich wahrlich nicht gerechnet
hatte: er fragte, was denn die schnellsten Algorithmen
seien, was ich mir nicht angeguckt hatte, da ich diese eine
Folie für einen reinen Hinweis gehalten hatte, zum Glück
konnte ich allerdings mit meinem Vorlesungswissen noch über
die Boyer-Moore Variante Horspool und den shift-and
Algorithmus parlieren.
Er fragt also wirklich alles und potentiell jede Folie ab.

Dieser ganze Bereich dürfte so 15 Minuten gedauert haben,
nicht weil ich so lange gebraucht hätte, sondern weil er
doch viel nachfragte, was nett war, da eigentlich absehbar
war, dass ich die Fragen ganz gut beantworten könnte.

Dann kamen wir zu Hidden Markov Modellen, wo er erst Mal die
Definition wissen wollte, die ich ihm mehr schlecht als
recht und eher in Abgrenzung zum normalen MM unterbreitete.
Es folgte die Frage nach der Ordnung der MK und wie sie
durch eine MK der Ordnung eins simuliert werden könne. Das
konnte ich ihm dann auch so grob beschreiben, auf die sich
anschließende Frage, wie sich dann die MK erster Ordnung
vergrößert viel mir leider nichts ein, bzw. das was mir
einfiel und richtig gewesen wäre, behielt ich für mich.
Er wollte dann die Frage beantwortet haben, was man denn mit
einem solchen Modell machen könnte, also auf den
Forward/Backward und den Viterbi Algorithmus hinaus,
letzteren sollte ich dann auch beschreiben, was mir ganz gut
gelang, ich schrieb dabei dann auch die Formel für die
Dynamische Programmierung auf, was er seinem
Gesichtsausdruck zu Folge nicht erwartete. Ich kriegte sie
aber nicht mehr ganz hin, wo er mich dann mit dem Hinweis
"worüber denn das Maximum geht?" auf die richtige Spur
führte. Er wollte dann noch die Laufzeit des Viterbi wissen,
die ich ihm runterbetete und auch erläutern musste, was ich
dann auch tat.
Es folgte ein Beispiel, wo er dann wissen wollte, wie man
das löst. Es war der Versuch einer kleinen Fangfrage, da
hier nach dem Forward-Algorithmus gefragt war. Mensch sollte
also gut wissen, wofür jetzt welcher Algorithmus ist und
dies aus dem Stehgreif reproduzieren können. 
Im Anschluss wollte er noch den Baum-Welch wissen, wo ich
ihm das EM-Prinzip erläuterte, alles ohne Formeln.
"Das war der schwere Fall, wie sieht denn der einfach aus?"
schloss sich als Frage an, was ich dann mit Maximum
Likelihood und einer groben Erklärung zur Zufriedenheit
beantwortete. 
Es folgte der Biologie-Einschub mit der einzigen Frage, was
denn ein Gen für verschiedene Bereich hat, wo ich ihm nur
was von Introns, Exons und Promotoren vorstammelte, die
Erwähnung von splice-Stellen,... hätte sich dann vielleicht
noch meine Note zum besseren gekippt. Es blieb allerdings
auch die einzige Biologie-Frage und diese stammte auch aus
dem Biologie-Teil seiner Folien.
Dann schlug er die Verbindung zum Multiplen Sequenz
Alignment und zur Anwendung der HMM auf dieses. Nach
kleinerer Konfusion umriss ich eine HMM für Multiples
Sequenz Alignment, es folgte die Frage nach der Anzahl der
Zustände, was ich mit der Länge der Sequenz beantwortete und
dabei die für Deletions und Inserts übersah. Was ich nach
einem kurzen Hinweis aber berichtigte.
Wir kamen dann auf die Frage, nach den Möglichkeiten ein MSA
zu wählen, wo ich dann die drei Zielfunktionen erwähnte, mir
eine aussuchen durfte und Sum-of-Pairs erläuterte. Ich
erwähnte dann Dynamische Programmierung im n-dimensionalen
Raum und grob die Berechnung. Formeln wollte er an dieser
Stelle, wie überall anders auch, nicht sehen. Viel
spannender fand er die Laufzeit und was denn jetzt was
ist(ich hatte vorher von n-Dimensionen gesprochen, in meiner
Formel, aber n für Länge und k für die Dimensionen genommen,
also quasi die Folien rezipiert, was er dann kurz geklärt
haben wollte).
Dann kam der schwächste Teil meiner Prüfung: die Verbindung
von MSA und Phylogenie. Er wollte darauf hinaus, wofür man
ein MSA nutzen könnte für die Phylogenie, ich erläuterte ihm
dann den Neighbor-Joining Algorithmus und wie sich ein Baum
so bauen lässt. Er wollte aber die ganze Zeit auf was viel
trivialeres hinaus: darauf, dass man für die Phylogenie
erstmal die homologen Abschnitte mittels MSA finden muss,
aber dass das Interessante ja der entstehende Baum ist. Auf
ersteres kam ich noch, letzteres war für mich zu banal, als
dass ich es erwähnt hätte. Er wollte von mir also nur ganz
grob die Phylogenie erklärt haben und ich verstand nicht,
worauf er hinaus wollte. Stellt euch also auch auf sehr
einfache Fragen ein. 
Mit seiner Erklärung dazu war dann auch die Prüfung vorbei,
es kam das übliche rein/raus und dann wurde mir die Note
genannt. Sie waren sich nicht ganz einig, während der
Beisitzer für eine 1,3 plädierte, war Prof. Leser eher für
eine 1,7. Die höhere Besoldungsstufe setzte sich durch. Bei
Noten wären beide fair gewesen. Auch wenn es aus dem Text
nicht ganz herauskommt, habe ich doch mehrere Teile recht
souverän vorgetragen. Da ich doch ein paar Mal ins Schwimmen
geriet, lief es dann auf eine der beiden Noten hinaus. Die
Begründung für die schlechtere Note war allerdings etwas
gewöhnungsbedürftig: Es hätte zu lange gedauert, nämlich 40
Minuten statt 30, was ich für eine nicht überzeugende
Begründung halte. Eine 1,7 wäre aber auch inhaltlich
gerechtfertigt gewesen, weshalb ich mich nicht beklagen
kann. Ihr müsst also schon darauf achten schnell
durchzukommen, wie auch immer das anzustellen ist.
Vielleicht häufiger bei Sachen, die klar sind springen, aber
so richtig erschließt es sich mir nicht, wie das gleiche
Pensum auch in 30 Minuten hätte abreißen sollen.
Er fragt gerne den Foliensatz bis zum Ende durch und will
wohl mindestens 4 Foliensätze schaffen.
Festzuhalten bleibt, dass es ihm zu keinem Zeitpunkt auf
ganz genaue Formeln ankam, solange man das Prinzip gut
erklären konnte. Dafür wollte er aber häufig die genaue
Laufzeit und eine Erklärung dafür haben.
Der Biologie-Teil ist marginal, sollte dann aber auch
gekonnt werden. Er wird, nach allem was ich so gehört habe,
nicht den Stoff des Gastdozenten am Anfang abfragen(welche
Wasserstoffbrücke jetzt wie,...), aber so eine grobe
Erklärung von dem, was er auch erwähnt hat(z.B. Gen
Exprimation, PCR,...), solltet ihr können. Setzt euch
vielleicht ein/zwei Tage vor Wikipedia und lernt die
Zusammenhänge. Die Erklärungen des Gastdozenten sind
überdimensioniert und zu sehr auf BiologInnen ausgerichtet
für das, was abgefragt wird.


= Note (Optional)
1,7

= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)
Die Prüfung war der best case in Bezug auf den Prüfer, in
Bezug auf mich hätte ich ein paar Sachen ein bißchen
souveräner vortragen können.


So, für die, die bisher durchgehalten haben und für die
anderen auch: Viel Glück für eure Prüfung!

Nr.PrüferFach
357 Leser Prof. Bioinformatik

Protokoll

= Datum der Prüfung
03.04.2008

= Benötigte Lernzeit als Empfehlung
ca. 1-2 Wochen, je nach dem, wie fleißig man im Semester war

= Verwendete Materialien (Bücher, Skripte etc...)
VL-Skript, Gusfield

= "Atmosphäre" der Prüfung / Verhalten der Beisitzer
nette, ruhig Atmosphäre. Prof. Leser macht zu Beginn ein
wenig Small Talk übers Studium

= Prüfungsfragen
Exaktes Matching:
KMP (Suche+Preprocessing) mit Beweis 
Erweiterung von KMP auf Keyword Trees
Definition Keyword Tree
Konstruktion + Suche im Keyword Tree
Failure- und Output-Links
Wie aufwändig ist es, FL + OL zu konstruieren
Phylogenie:
Welche Verfahren gibt es?
Was ist ein Character?
Perfect Phylogeny, was ist das, welche Eigenschaften hat der
Baum?
Small vs. Large Parsimony
Sankoff Algorithmus im Detail erklären, Vektoren für alle
Knoten berechnen
Branch + Bound

= Note (Optional)
2.0

= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)
Gute Prüfung, Prof. Leser ist sehr zu empfehlen. Wenn man
mal nicht so richtig weiter weiß, hilft er einem. Die Note
geht in Ordnung, da ich am Ende bei Sankoffs Algorithmus
ziemlich ins Schwimmen geraten bin.

Nr.PrüferFach
375 Leser Prof. Text Analytics

Protokoll

= Datum der Prüfung
31.07.2008

= Benötigte Lernzeit als Empfehlung
1 Woche, da ich im Semester schon viel mitgelernt hatte. Diese Woche diente also nur der Vertiefung und des Einprägens.

= Verwendete Materialien (Bücher, Skripte etc...)
VL-Folien, Wikipedia

= "Atmosphäre" der Prüfung / Verhalten der Beisitzer
Nette Atmosphäre. Zuerst wird ein bisschen Smalltalk über das Studium (besuchte Kurse, Nebenfach...) gemacht und dann geht es ganz gemütlich mit der Prüfung los. Der Beisitzer war komplett ruhig und hat sich nur Notizen gemacht.

= Prüfungsfragen
Entgegen meiner Annahme konnte ich mir das Startthema nicht aussuchen, das hat mich erst einmal ein bisschen aus dem Konzept gebracht. Alles in allem hatte ich den Eindruck, dass Prof. Leser diesmal eher in die Breite als in die Tiefe geprüft hat. 

Themen waren in etwa: 
- Abgrenzung IR zu Datenbankanfragen
- IR-Pipeline
- Preprocessing
- Stemming vs. Lemmatisierung
- Stopwörter, Zipf's Law
- IR-Modelle
- POS-Tagging
- HMM: Viterbi und Training eines HMM mit Komplexität
- Page-Rank-Algorithmus
- Stringmatching wurde bei mir nicht geprüft, weil ich schon die Bioinformatik-Prüfung hinter mir hab und das dort ausführlichst drankam
- restliche Fragen/Themen hab ich vergessen, aber er wollte immer wissen, welche Anwendungen eine best. Technik/Verfahren hat und was die Vor- und Nachteile sind.

= Note (Optional)
1.3

= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)
Super Prüfung.


Nr.PrüferFach
376 Leser Prof. Text Analytics

Protokoll

= Datum der Prüfung
SoSe 2008

= Benötigte Lernzeit als Empfehlung
Ich empfehle so ungefähr 14 Tage.

= Verwendete Materialien (Bücher, Skripte etc...)
Vorlesungsfolien

= "Atmosphäre" der Prüfung / Verhalten der Beisitzer
War ein entspanntes Gespräch. Leser wollte erst noch wissen, was man so macht und was man machen will. Hat auch zwischendurch gelegentlich Fragen abseits vom Thema gestellt. Der Beisitzer hat nichts gesagt, ich fand ihn aber trotzdem sehr beruhigend und nett.

= Prüfungsfragen
IR erklären: Recall und Precision, Diplomacy, Preprocessing und Normalisierung

IR-Modelle aufzählen, VSM erklären (mit Implementation, Relevance Feedback und Rocchio-Algorithmus mit Formel)
Inverted Files mit Implementation, Platzkomplexität etc.

Clustering, hierarchisches Clustering, k-Means und k-Medoid, miteinander vergleichen (Komplexität)

Linguistik: ein paar Fachbegriffe, Homonyme etc. Bedeutung für Recall und Precision

= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)
Im Großen und Ganzen war die Prüfung ok, die Fragen nicht zu schwer und er hat auch geholfen, wenn es nicht mehr weiter ging. Mich hat aber gewundert, wie schwer nachher bei der Bewertung Komplexität und einzelne Formeln gewichtet wurden. Das finde ich etwas unangemessen, da es erstens nur kleine Detailfragen waren und zweitens in der Vorlesung sehr wenig Wert darauf gelegt wurde. Ich hätte mich gern darauf eingestellt, aber wir sind ja hier nicht bei wünsch dir was. Also: lernt Formeln!

Nr.PrüferFach
377 Leser Prof. Text Analytics

Protokoll

= Datum der Prüfung
01.08.2008

= Benötigte Lernzeit als Empfehlung
ca. 2 Wochen, wobei es empfehlenswert ist, sich die Folieninhalte zusammenzuschreiben (macht so ca. 60-70 Seiten, statt ca. 700 Folien).

= Verwendete Materialien (Bücher, Skripte etc...)
Skript, Web, fuer die Suchalgorithmen empfiehlt sich z.B. für Boyer Moore auch mal ein Blick in die Skripte der VL Algorithmen in der Bioinformatik

= "Atmosphäre" der Prüfung / Verhalten der Beisitzer
Wie immer sehr angenehm. Kurzer Smalltalk, u.a. allgemeines Klagen über die Hitze.
Beisitzer schreibt nur mit

= Prüfungsfragen

--> Unterschiede in den Ergebnissen DB-Query -- IR Query
- Ranking
- Relevanz

-->Aufbau IR System
- Query 
- IR-Algo 
- Index 
- Corpus

--> Was sollte man machen bevor ein Dokument in den Index aufgenommen wird?
- StopWord Removal
- Stemming etc.

--> Was sind Stopworte
- in erster Linie hohe Frequenz + keine Aussagekraft bzgl. Dokument
- Zipf's Law (in diesem Zusammenhang dann doch eine Frage zum Thema Linguistik)

--> Wie entstehen neue Worte?
- Produktion/Kreativitaet (z.B. Zusammensetzen von bekannten Worten)
- Entlehnung (aus Fremdsprache)

--> Welche IR Algorithmen kennen sie
- Boolean
- VSM
- Wahrscheinlichkeit
- LSI

--> Boolean und VSM erklaeren
- Funktionsweise, 
- Vorteile/Nachteile

--> Stringsuche: Boyer Moore
- Idee
- ECBR + Good Suffix (Was muss bekannt sein fuer Anwendung dieser Regeln --> notwendige Speichergroesse)
- Bsp fuer BestCase aufschreiben + Wieviele Vergleiche für BestCase (z.B. BBBBBBBBBBB AAAA / Laenge Text/Laenge Pattern)

--> Web Suche (Warum nicht mit normalen IR Methoden behandelbar?)
- dynamischer Corpus
- Ranking basiert Prestige

--> PageRank Algorithmus
- Idee
- Wie berechnen (Idee + wann konvergiert Algo)

= Note (Optional)
1.3

= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)

- wichtig sind Verstaendnis der Algorithmen/Tehmen, sowie Vorteile/Nachteile/Komplexitaet
- es wird geholfen, wenn es mal Unklarheiten gibt
- es schadet nicht, Wissen wie Vorteile/Nachteile (vlt. Verbesserungen) neben der Erklaerung eines Algorithmus unaufgefordert zum Besten zu geben
- Benotung ist fair, man muss was wissen, aber wenn man mal Nachdenken oder sich etwas herleiten muss, dann scheint dies keinen negativen Einfluss zu haben



Nr.PrüferFach
378 Leser Prof. Text Analytics

Protokoll

= Datum der Prüfung
31.08.2008

= Benötigte Lernzeit als Empfehlung
mind. 10 Tage

= Verwendete Materialien (Bücher, Skripte etc...)
Folien, Wikipedia

= "Atmosphäre" der Prüfung / Verhalten der Beisitzer
Alles war ziemlich nett.

= Prüfungsfragen
erstmal Smalltalk, dann Grundlagen - Precision, Recall, Accuracy, Recall Levels, Zipf's law.

IR - Schema zum Information Retrieval, Komponenten, Stemming, Lemmatisierung

Algorithmen - PageRank und Random Surfer Model (mit Formeln und Erklärung
der Matrix), Z-Box (mit Komplexität für average und worst case, Beweis)

Linguistik - wie funktioniert Sprachproduktion, woher kommen neue Wörter,
welche geschlossenen Wortklassen gibt es (z.B. Artikel)

= Note (Optional)
:-(

= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)
Die Prüfung war OK, aber kam das, was ich nicht erwartet habe. Man muss sehr Preziss alle Laufzeite mit Beweis wissen.

Nr.PrüferFach
407 Leser Prof. Informationsintegration

Protokoll

= Datum der Prüfung
12.03.09

= Benötigte Lernzeit als Empfehlung
zwei Wochen

= Verwendete Materialien (Bücher, Skripte etc...)
VL-Folien, das Buch

= "Atmosphäre" der Prüfung / Verhalten der Beisitzer
Freundlich. Wie immer gab's zu Beginn ein bisschen Smalltalk über das Studium/Nebenfach

= Prüfungsfragen
1. Einleitung: EAI und Informationsintegration abgrenzen, Middleware einordnen

2. Schema-Matching: 
   - Was ist das? Warum macht man das?
   - 4 Arten (labelbasiert, instanzbasiert, duplikatbasiert, strukturbasiert)
     detailliert erklären (Similarity Flooding!) und Vor- und Nachteile nennen
   - Warum ist duplikatbasiertes Matching schwierig? Welche Komplexität?

3. Duplikaterkennung:
   - Was ist ein Duplikat?
   - Wie teuer ist die naive Variante zur Duplikaterkennung? 
     Wieviele Vergleiche macht man genau? (hier wollte er auf ((n^2)/2-n) 
     Vergleiche hinaus. Das ist blöderweise nur im Buch erklärt, in den 
     VL-Folien gibt's nix dazu) 
   - SortedNeighborhood + Varianten erklären, Vor-/ Nachteile nennen, Komplexität herleiten
   - Ähnlichkeitsmaße definieren, Vor- / Nachteile nennen
   - Zielkonflikte: Wie beeinflussen Ähnlichkeitsmaße, Partitionsgrößen und 
     Schwellwert Precision, Recall und Effizienz? 
     (Da gabs so ein Dreieck in der VL...)

4. Semantic Web
   - Sparql, RDF, OWL einordnen
   - Welche Unterschiede gibt es zwischen OWL lite, full und dl?

5. Semantische Integration
   - Prozess der semantischen Integration erklären
   - Was ist eine Query?
   - Wie funktioniert die Anfragebearbeitung? 
   - Wo sind Antworten auf die Query zu finden?

= Note (Optional)
2.0

= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)
Note war angemessen, weil ich bei semantischer Integration recht große Lücken hatte. Annahme: Das Thema kommt nicht dran, weil der Prof mal meinte, er könne das Thema nicht leiden. -> Fehler
Die Fragenauswahl fand ich ziemlich unfair, da nur Themen aus dem letzten Drittel der VL gefragt wurden. Große Bereiche, die lang und ausführlich in der VL behandelt wurden, kamen überhaupt nicht dran.

Nr.PrüferFach
415 Leser Prof. Informationsintegration

Protokoll

= Datum der Prüfung
28.05.09
= Benötigte Lernzeit als Empfehlung

Habe 10 Tage gelernt. 2 Woche sind aber wahrscheinlich besser.

= Verwendete Materialien (Bücher, Skripte etc...)
Eigentlich nur das Skript.

= "Atmosphäre" der Prüfung / Verhalten der Beisitzer

Die Atmosphäre war sehr entspannt. Herr Leser hat erstmal gefragt wie es mit dem Rest des Studiums aussieht und dann ging es los. Der Beisitzer war die ganze Zeit ruhig.

= Prüfungsfragen

- Was sind die Dimensionen von Informationssystemen?
- Gehen sie auf Verteilung näher ein!
- Ordnen sie die kennengelernten Informationssystem in das Schema (Diagramm der Dimensionen) ein!
- Nennen sie dabei die Eigenschaften der Informationssysteme!
- Nennen sie die Schichten der 5-Schichten-Architektur samt ihrer Funktionen!
- Nennen sie die Schritte der Anfragebearbeitung und erklären sie ihre Funktion!
- Was ist eine LaV-Korrespondens?
- Erklären sie den Frozen-Facts Algorithmus!
- Wann ist ein Plan semantisch korrekt? (Dazu hab ich noch Query Containment definiert)
- Was ist Schema Matching?
- Welche Verfahren hatte wir da kennen gelernt? (brauchte hier duplikatsbasiert nicht erklären)
- Was machen wir beim globalen Matching?

= Note (Optional)
1.3

= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)

Sehr gute und faire Prüfung. Herr Leser hatte zwar ein bisschen Zeitdruck. Habe es aber im ersten Teil der Prüfung noch geschafft ihn zu überholen :)

Nr.PrüferFach
495 Leser Prof. Text Analytics

Protokoll

= Datum der Prüfung
März 2011

= Benötigte Lernzeit als Empfehlung
Fast immer anwesend gewesen als Basis - das ist empfehlenswert, auch da das Script nicht alle Details beinhaltet
1x Script Durcharbeiten - wirklich gründlich, aber schwer in Tagen anzugeben, ich empfehle beinahe es nicht am Stück zu versuchen
2 1/2 Tage intensives Lernen

= Verwendete Materialien (Bücher, Skripte etc...)
Das Script ist hervorragend, wenn man anwesend war und manche \"Why?\" inhaltlich füllen kann. Für Detail- und Definitionsfragen hilft sonst auch Wikipedia. 

= \"Atmosphäre\" der Prüfung / Verhalten der Beisitzer
Unglaublich entspannt. Gerade da es meine erste Hauptstudiumsprüfung war, wusste ich nicht, was mich erwartet. Herr Leser quatscht aber gern locker drauf los und lässt ein nettes Gespräch entstehen. Man kann auch locker antworten, auf übertriebene Förmlichkeit legt er keinen Wert.

Die Beisitzerin lächelt nett und sagte nichts.

= Prüfungsfragen
Wie in der VL angekündigt kommen die Fragen blockweise. Ich hatte als Themenblöcke:
Was ist Information Retrieval, wie funktioniert Anfragebeantwortung?
- Unterschied Inf. Retrieval vs. DB-Queries
- Abarbeitungsfolge im IR - Corpus-Preprocessing, Stemming etc., Query beantworten
- Was gibt es für Query-Typen? Bool\'sch, VSM, VSM mit LSI, Phrase-Queries (da bin ich nicht drauf gekommen), probabilistisch

Stop Words
- Was sind stop words, wozu entfernt man sie?
- Wie viele würden Sie entfernen? Persönliche Meinung gefragt. Folgefragen: Warum diese Menge? Was bringt das an Platzersparnis?
- Stop Words in mehrsprachigen Corpora: Kann man auch einfach die häufigsten Worte entfernen, welche Risiken bestehen?
- Stop words in Fach-Corpora: Achtung, man könnte Abkürzungen o.Ä. als Stop Words betrachten und entfernen
- Was kann schief gehen? => (Phrase) Queries mit Stop Words drin
- Speicheraufwandsgewinn bei Phrase Queries, wenn man Stop Words verwendet (deutlich mehr)

Bool\'sche Queries - Wie funktionieren Bool\'sche Queries? Da ich relativ viel geredet habe, hat er da nicht sehr viel gefragt.
- Mengenoperationen
- Selektivität
- nicht relevant: exakte Formeln oder Laufzeiten

Stringsuche - Was gibt es da für 2 Algorithmen?
=> Primitiv - Wie funktionierts? Laufzeit?
=> Boyer-Moore
- Komplett erklären, mit Bad Character Rule + Good Suffix Rule. Beispiele ruhig aufmalen, das hilft Prüfer und Geprüftem ;-)
- Laufzeit?
- Wie sieht der Best-Case aus? Beispiel. (Template a* soll auf Pattern b* gematcht werden. Laufzeit: Templatelänge/Patternlänge) Hier war spontan kurzes Nachdenken gefragt, dafür wird einem aber auch genügend Zeit gegeben. Wenn man auf die Lösung kommt, ist\'s gut.
- Vermutlich da ich\'s eh erwähnt habe, wurde nach Erweiterungen von Boyer-Moore nicht mehr gefragt.

PosTagging:
- Was sind PosTags?
- Wie kann man PosTags vergeben? => Häufigstes posTag aus dem Goldstandard / HMM
- Wie gut funktioniert\'s, wenn man das häufiges posTag aus dem GoldStandard verwendet? (90% accuracy im Englischen) Wie sieht\'s im Deutschen aus?

HMM:
- Komplett erklären. Ich empfehle dringend: Aufmalen. Man hat ja Papier da.
- Wie sieht das Modell aus?
- Wie findet man die Wahrscheinlichkeiten? 
- Wie kann man hierbei smoothen? Laplace vs. Lipstone. Was haben Sie im Praktikum verwendet? Ergebnisse?
- Wie kann mittels Viterbi getaggt werden? Ich habe auch hier gemalt, ein Minibeispiel mit 3 Tags und 3 Worten im Satz reicht da vollkommen aus.
- Wie ist die Laufzeit von Viterbi? < Ich weiß nicht, wie präzise ich da hätte sein müssen, im Zweifel einfach lieber zu präzise antworten :)

= Note (Optional)
Sehr gut.

= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)
Als ich herausging, dachte ich noch \"War nicht so prickelnd.\" Herr Leser hat einige Nachfragen, gerade am Anfang, stellen müssen, bis ich auf die Wunschantworten kam. So viel wurde ja auch gar nicht gefragt - gefühlt. Erst jetzt, wo ich\'s aufschreibe, stelle ich fest, dass ich doch einige Themen durchgeackert habe. 

Wichtig zu wissen: Nichtwissen ist erlaubt. Bevor man lange rumeiert, sagt man lieber \"Ich weiß nicht, wodrauf Sie hinauswollen.\" Dann stellt er die Frage anders/konkreter und man kann wieder in Ruhe antworten. Gerade bei sehr offenen und unklaren Fragen kann das helfen.
Wichtig auch: Wissen, das man hat, ruhig preisgeben. Wo ich einfach relativ viel von mir aus erzählt habe, gab es auch kaum Nachfragen. (Und ich konnte so Schwächen in einzelnen Untergebieten einfach umschiffen.) Wenn es ihm zu viel wird, stellt er Zwischenfragen oder wechselt das Thema.

Alles in allem: Viel viel besser als erwartet. Die VL ist echt viel Arbeit, aber Herr Lesers Prüfungsstil macht einiges wett in der Gesamtbewertung der Veranstaltung ;-) Wo ich nach dem Praktikum noch dachte \"Nie wieder\", bin ich jetzt gar nicht so sicher nicht doch bald wiederzukommen.

Nr.PrüferFach
497 Leser Prof. Text Analytics

Protokoll

= Datum der Prüfung

März 2011

= Benötigte Lernzeit als Empfehlung

10 Tage Skript intensiv durchgehen und versuchen alles zu verstehen. 2 Tage intensives Lernen. 2 Tage mit Kommilitonen offene Fragen klären und sich gegenseitig abfragen. Mehr ist natürlich immer gut ;)

= Verwendete Materialien (Bücher, Skripte etc...)

Skript.

= \"Atmosphäre\" der Prüfung / Verhalten der Beisitzer

Sehr entspannt. Professor Leser und Beisitzerin waren sehr freundlich. Professor Leser gelingt es, dass die Nervösität während der Prüfungs immer mehr abnimmt anstatt andersherum ;)

= Prüfungsfragen

- Unterschied IR und DB
- Was ist KWIK?
- Was sind Homonyme/Synonyme und welche Auswirkung haben sie auf IR?
- Wie kann man Synonyme auflösen? Kann LSI Synonyme auflösen? Warum macht Google höchstwahrscheinlich keine Synonymauflösung?
- Zipf\'s Law und Auswirkungen auf IR
- Unterschied Web Search und IR
- Zusammenhang Prestige und Random Surfer Model
- Herleitung von Page Rank mittels Random Surfer Model (...notwendige Eigenschaften der Adjazenzmatrix, um das Eigenwertproblem zu lösen?)
- Erklärung Hits und Nachteile gegenüber Page Rank
- Was ist Classification?
- Welche Classifier hatten wir? (SVM, Naive Bayes, Maximum Entropy und KNN)
- KNN erklären und Nachteile erläutern
- Was ist Overfitting? Wie kriegt man mit, dass man overfittet? Was kann man dagegen machen?

= Note (Optional)

Sehr gut.

= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)

Professor Leser stellt gerne Fragen, die das Verständnis größere Zusammenhänge testen. Formeln spielen in der Regel eine untergeordnete Rolle. Vor- und Nachteile der einzelnen Ansätze sollten verinnerlicht oder zumindest herleitbar sein. Einige Fragen sind auch mit umfangreichem Wissen zum Stoff nur schwer zu beantworten - durch diese Fragen darf man sich aber definitiv nicht verrückt machen lassen. Weiß man irgendetwas nicht, kann man das ruhig zugeben - das spart Zeit und muss (vor allem bei sehr schwierigen Fragen) nicht gleich zu einem Notenabzug führen. Alles in allem eine fordernde, aber sehr faire und gute Prüfung.

Nr.PrüferFach
507 Leser Prof. Text Analytics

Protokoll

= Datum der Prüfung
März 2011
= Benötigte Lernzeit als Empfehlung
2 Wochen waren genau richtig, nicht von der Anzahl der Folien verunsichern lassen und durchhalten
= Verwendete Materialien (Bücher, Skripte etc...)
Skript (erfordert aber die Erinnerung an die VL)
Lernscript von http://www2.informatik.hu-berlin.de/~A. Nonym/ (hauptsächlich um bei manchen Folien Unklarheiten nochmal anders formuliert zu lesen, ansonsten deckt es sich mit den Folien)
Buch Modern IR (gut für den Zusammenhang)
= \"Atmosphäre\" der Prüfung / Verhalten der Beisitzer
Echt entspannt, sehr langer Smalltalk (hatte ich auf Grund der Protokolle schon mit gerechnet) was viel Nervosität genommen hat. Leser war sehr nett, der Beisitzer hat nicht viel gesagt war aber auch nett
= Prüfungsfragen
Einstieg mit Lieblingsthema wäre möglich gewesen, hab ich aber nicht gemacht
Exaktes Stringmatching (Naiv, BM, Worst-, Best-Case, Komplexität)
POS, Grammatik-Frage (in welcher Form kann ein Wort verändert sein: Tempus, Fall, ...; hat mich etwas verwirrt), MM, HMM, Viterbi (inkl. Komplexität), Smoothing
MLE
NER, Sliding Window für Multi-Token-NEs (wusste ich nicht), Dictionaries
= Note (Optional)
1,7
= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)
Zeit ging schnell rum, durch den lockeren Einstieg kam man gut in einen Fluss und musste nicht von Frage zu Frage bangen... Die Komplexitäten musste ich z.T. erst herleiten, war aber wohl nicht so tragisch... Zum Ende hin kam ich dann nicht auf die Idee mit dem Sliding Window, daher sind Abzüge bei der Note voll gerechtfertigt... Wie die anderen Protokolle (von diesem Semester) schon vorhergesagt haben ists ne super Prüfung und ich werd versuchen wieder eine VL von Leser zu besuchen!

Nr.PrüferFach
527 Leser Prof. Bioinformatik

Protokoll

Datum: 26. August 2011

Lernaufwand: 4 Tage Intensivstudium reichen zur Auffrischung, wenn man im Semester fleißig war

Materialien: VL Folien + Gußmann + Wikipedia + zusätzliche Webseiten

Atmosphäre: Ich war ein wenig verwundert, dass die Prüfung im Büro von Herrn Leser stattfand. Ich bin da eher neutrale Orte für Prüfungen gewohnt. Aber ansonsten entspannt.

Fragen:
   - Exaktes Matching mit Boyer-Moore (selbst gewählt) + BCR + EBCR + weak/strong/super strong GSR + Komplexität(avergage, WC) + Platzverbraucht + was ist das beste

   - Multiples Sequence Alignment + Definition + Komplexität(für optimales MSA) + Sum of Pairs +  Nachteile aus Informatik- und Biologiesicht + ClustalW + Guide Tree + Phylogenitischer Baum

   - Microarrays + so ziemlich alles was man dazu sagen und machen kann

Note: 1.0
Fazit: Fleißig lernen und Enthusiamsmus zeigen. Herr Leser hat einen String an Antworten, den er leider verbirgt. Die Aufgabe ist nun einfach einen eigenen String vorzutragen, der seinem möglichst ähnlich ist und am besten keine Gaps hat. ;)

Nr.PrüferFach
552 Leser Prof. Data Warehousing und Data Mining

Protokoll

= Datum der Prüfung
Februar 2012
= Benötigte Lernzeit als Empfehlung
14 Tage sollten eingeplant werden, sehr viel Stoff
= Verwendete Materialien (Bücher, Skripte etc...)
Skript, Google, Wikipedia
= \"Atmosphäre\" der Prüfung / Verhalten der Beisitzer
alles sehr entspannt, kurzes Gespräch über das Studium und Schwerpunkte, Beisitzer hat nichts gesagt, dann ging es mit dem Lieblingsthema los
= Prüfungsfragen
- Elemente vom MDDM nennen
- Wie spielen die Elemente zusammen?
- müssen Klassifikationsstufen innerhalb eines Schemas immer funktional voneinander abhängen? (Nein -> Woche + Jahr)
- Erstellen Sie ein Data Warehouse für ein Telekommunikationsanbieter: Dauer von Anrufen tracken, eigener Kunde oder Kunde vom Wettbewerber?, Ort + Zeit als zusätzliche Dimension. (es gibt keine optimale Lösung)
- Group-by Anfrage auf sein eigenes Schema stellen
- Was macht Cube und wie wird group-by implementiert?
- Erklären Sie group-by mit Sortierung
- Was sind Probleme bei Materialized Views? (Selektion, Aktualität, ...)
- Wie kann man das Problem der Selektion lösen? (Pipesort erklären und Aggregationsgitter aufmalen)
= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)
angenehme Prüfung, sehr faire Bewertung. Prof. Leser gibt ausreichend Zeit zum Nachdenken und unterstützt auch wenn nicht sofort die Antwort einfällt. Hauptsächlich sollte auf Verständnis gelernt werden und Zusammenhänge sollten verstanden werden. Formale Definitionen interessieren nicht.

Nr.PrüferFach
554 Leser Prof. Data Warehousing und Data Mining

Protokoll

= Datum der Prüfung
29.02.2012

= Benötigte Lernzeit als Empfehlung
14 Tage

= Verwendete Materialien (Bücher, Skripte etc...)
Script, Mitschriften

= \"Atmosphäre\" der Prüfung / Verhalten der Beisitzer
sehr entspannte Atmosphäre, kurzer Smalltalk 

= Prüfungsfragen
----Indexierung----
- B*-Bäume
Er wollte relativ genau wissen was passiert wenn man einen Knoten im B* Baum löscht und was dann passieren kann (Mergen von Knoten) und was man dann machen muss (Pointer neu setzen etc.).
- Bitmap Index
Danach waren Bitmap Indexe dran. Ich sollte kurz den Aufbau erklären und einen Index skizzieren. Danach wollte Prof. Leser wissen, wie man einen Bitmap Index bei zusammengesetzten Bedingungen benutzt. Er hatte zwei Bedingungen X=1 AND Y=2 gegeben und wollte wissen wie die beiden Indexe benutzt werden können. Gleiches für X=1 OR Y=2 und X=1 AND Y!=2. Ich wusste nicht genau worauf er hinaus wollte aber am Ende wollte er wirklich nur die logische Verknüpfung also X AND NOT Y etc.
Danach folgte ein Übergang zur Komprimierung (Was macht man wenn der Index nicht in den Hauptspeicher passt?). Ich sollte kurz RLE1 und 2 erklären. Wir sind dann relativ detailliert auf die Veränderung der Zahlenbasis eingegangen. Er fragte mich wie man 25 verschiedene Werte anders darstellen kann. Ich sollte dann für meine Zahlenbasis <3,4,3> einen Wert darstellen. Danach kam die Frage, ob man 25 Werte auch mit 8 Bit darstellen könnte.


----Klassifizierung----
Was macht man bei Klassifizierung? Kurz alle drei Verfahren (Bayes, Entscheidungsbaum, Nearest Neighboor) erklären. Vorteile und Nachteile aller Verfahren nennen. Naive Bayes wollte er relativ genau erklärt haben (Zusammenspiel der Wahrscheinlichkeiten). Beim Entscheidungsbaum wollte er wissen wie man eine Entscheidung nennt (=Split).

----Partitionierung----
Welche Arten gibt es? Was sind die Vorteile? Wofür verwendet man die einzelnen Formen. Er fragt hier schon relativ genau nach warum man z.B. bei häufigen Wertänderungen auf einigen Attributen vertikal Partitionieren kann. Auch bei den Vorteilen bei der Horizontalen Partitionierung wollte er mehr wissen als Parallelisierung. 

= Note (Optional)
1,3

= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)
Ich hatte einige genaue Begriffe wie z.B. Split oder den Namen der Wahrscheinlichkeit bei Bayes (Apriori-Wahrscheinlichkeit) nicht parat oder wusste nicht worauf er hinaus wollte und war beim B*-Baum etwas begriffsstutzig. Insgesamt legt er weniger Wert auf Formalien sondern eher auf gutes Verständnis. Um dies zu Überprüfen hakt er gerne auch etwas tiefer nach, hilft aber auch wenn man nicht genau weiß worauf er hinaus will. Am Ende war die Note besser als mein Gefühl es erwartet hätte.

Nr.PrüferFach
555 Leser Prof. Data Warehousing und Data Mining

Protokoll

= Datum der Prüfung
29.02.2012
= Benötigte Lernzeit als Empfehlung
2 Wochen mit DBS1 Vorwissen
= Verwendete Materialien (Bücher, Skripte etc...)
Skript, Wikipedia, Literatur (Datenbanktechnologie für Data-Warehouse-Systeme. Konzepte und Methoden von Wolfgang Lehner)

= \"Atmosphäre\" der Prüfung / Verhalten der Beisitzer

Angenehm und locker. Beisitzer notierte nur, Prof. Leser führte am Anfang 5 Minuten Smalltalk über Studiumsverlauf
= Prüfungsfragen

Haben Sie ein Lieblingsthema? -> Indexierung

- B*-Baum erklären
- Komplexität von B*-Bäumen
- Einfügeoperationen / Balancierung
- BULK-LOAD von 1 Million Tupeln in einen nicht leeren B*-Baum
- Bitmap-Index erklären
- Unterschiede zum B*-Baum am Beispiel mit x-Tupeln und n-Attributen
- Vorteile/Nachteile? (Beispiel mit Verkettung von Bedingungen an A=5 und B=7, dann, A=5 B!=7.)
- Kompression erklären: RLE1 / RLE2
- Vertikale Komprimierung erklären am Beispiel: Welche Komprimierung für Wertebereich von 25? Wie viele Bitarrays? Wähle <3,3,3> - geht das auch mit <5,5> ? Was muss mehr Bitarrays laden? (<3,3,3> = 3 ), was braucht mehr Speicher? (<5,5> = 10 Bit), geht das noch kleiner? -> Binär
- ETL: Was ist das?, Prozess erklären
- Macht es Sinn Staging Area auf anderem System als Basisdaten zu haben ? -> Ja OLTP vs. OLAP optimierte Systeme. Staging Area eher OLTP.  
- Differential Snapshot Problem: Was ist das ? -> Definition aus Folien
- Lösung? -> 5 Algorithmen aufgezählt
- Erklären sie einen davon ausführlich + Kosten -> DS_hash
- Duplikaterkennung: Wo liegt das Problem?
- Lösung? Kosten? (Simpel, also jedes Tupel mit jedem Tupel vergleichen / mit Window)
- Wenn Sie ihr Window verkleinern, wie verändert sich Precision, Recall und Kosten?

= Note (Optional)
1,3
= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)

Absolut faire Prüfung und angemessene Benotung.

Nr.PrüferFach
556 Leser Prof. Data Warehousing und Data Mining

Protokoll

= Datum der Prüfung
  Februar 2012

= Benötigte Lernzeit als Empfehlung
  1 Woche

= Verwendete Materialien (Bücher, Skripte etc...)
  Skript

= \"Atmosphäre\" der Prüfung
  gut, relativ entspannt

= Prüfungsfragen

1. Clustering (mein Wahlthema)
 - Arten von Clusteralgorithmen
 -- hierarchisches Clustern erklären
 -- k-Mean und k-Medoid erklären und Laufzeitkomplexität bestimmen
    (Startwerte, Berechnung der Mittelwerte)

2. Star-Join
 - Erklären was das ist
 - Besonderheit der Bevorzugung des kartesischen Produktes
 - Bitmap-Join-Index erklären
 - Bloom-Filter erklären

3. OLAP vs OLTP
 - Unterschiede erklären

= Note (Optional) 
  1,3

= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)
  Meine Ausdrucksweise war nicht immer klar und deutlich und die Antworten kamen nicht immer so wie er es gern hätte.
  Mit Nachfragen und Diskussion kann man sich aber trotzdem gut verständigen.
  Gute Benotung

Nr.PrüferFach
559 Leser Prof. Bioinformatik

Protokoll

= Datum der Prüfung
3.2012
= Benötigte Lernzeit als Empfehlung
Wenn man in der Vorlesung war reichen 5 Tage
= Verwendete Materialien (Bücher, Skripte etc...)
Vorlesungsfolien + Lernskript von http://www2.informatik.hu-berlin.de/~A. Nonym/
(passwort Lernskript erratbar)
= \"Atmosphäre\" der Prüfung / Verhalten der Beisitzer
Beisitzer sagt nichts, hat nur den Studiausweis überprüft und Notizen gemacht.
Wir haben uns am Anfang über meinen Studiumsfortschritt und gemachte Prüfungen unterhalten, ging aber nicht auf die Prüfungszeit.
= Prüfungsfragen
was ist ein suffix baum
wie baut man einen suffix baum
was kann man mit einem suffix baum machen
was ist ein suffix array
was kann man mit einem suffix array nicht machen was man mit einem suffix baum machen kann

was ist ein MSA
wozu braucht man das
Scoring funktionen: SoP (was wird womit aligniert, komplexität (berechnen und optimum finden)), Center Star, Clustal-W

wozu braucht man blast
was genau tut blast (überlappende teilstücken nehmen und mit substitutionsmatrix bewerten)
was tut blast2 anders (2hit Strategie)

UPGMA kennt niemand, wie heißt das allgemein? (Hierarchisches Clustering)

= Note (Optional)
2.7
= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)

Gute Prüfung, viel Hilfe, Querbeet gefragt, bei \"Weiß ich nicht\" wird das Thema gewechselt. Note war dem Wissensstand angemessen.

Mein Tipp:
Zu jedem Thema X die Frage \"Wozu braucht man X und was gibt es da noch\" beantworten können

Nr.PrüferFach
560 Leser Prof. Bioinformatik

Protokoll

= Datum der Prüfung
02.März 2012
= Benötigte Lernzeit als Empfehlung
7 Tage / 80h ohne Vorlesung zu Besuchen, Übungsaufgaben selbst gelöst
= Verwendete Materialien (Bücher, Skripte etc...)
Skript
= \"Atmosphäre\" der Prüfung / Verhalten der Beisitzer
sehr angehme, schon fast familiäre Atmosphäre (10min Fragen zu Studienverlauf etc.) ; Beisitzer war still
= Prüfungsfragen

- z-Box vollständig (komplette Fallunterscheidung; worst, best und avg Komplexität)
- Boyer-Moore, nur nennen und BCR, GSR sagen
- Suche nach mehreren Pattern gleichzeitig? -> Aho-Corasick ausführlich (Wie erstelle ich den Baum? Was muss ich dann machen? -> Failure Links; Was für ein Problem gibt es? -> Manche Matches werden übersehen; Eine hinreichende Bedingung, damit soetwas auftritt? Wie behebe ich das?)
- MSA: Möglichkeiten nennen. -> Frage von mir: Wie hieß das nochmal mit dem Baum?
- Wollen Sie Sum of Pairs oder mit phylogenetischem Baum erklären? -> SoP
- darauf hin SoP sehr aufühlich erklären. Nach meiner verbalen Formulierung malte er einen 1^3 Einträge Würfel und einen Pfad und fragte wie man den einen Abschnitt berechne; man sollte hier auch detailiert wissen wie man den Score für gemischte Match/Mismach/Delete Situationen berechnet
- Alignment von Seqeunz mit einem MSA: Möglichkeiten?
- Profile HMM etwas vertieft. Im Prinzip sagtee er nur ich solle das Bild malen mit den Ins-,Del-,Match- Zuständen

= Note (Optional)
1,3
= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)
Ich 2,3 Mal nach einem Namen fragen bzw. nach einem kurzen Stichpunkt zu einem von ihm genannten Namen fragen. Das muss er wohl (korrekterweise) als Prüfungsaufregung gedeutet haben. 
Im Verlauf meiner Erklärungen hatte ich oft leichte Abweichungen zu den von Prof. Leser vorgestellten Verfahren. Wenn ich von ihm eine Auflösung gehört habe, habe ich immer deutlich gemacht inwiefern ich davon grade leicht abgewichen bin, bzw. inwiefern ich genau das gemacht habe. Ich habe hier ehrlich gasagt mit einer deutlich schlechteren Bewertung seinerseits gerechnet. Es bleibt also festzuhalten, dass ein Dialog über seine Vorstellungen und den eigenen Vortrag außerordentlich fair und aufgeschlossen behandelt wird (natürlich sollte man sich hier nicht verrennen).

Nr.PrüferFach
567 Leser Prof. Data Warehousing und Data Mining

Protokoll

= Datum der Prüfung
April 2012

= Benötigte Lernzeit als Empfehlung
Man sollte schon wenigstens eine Woche einplanen, insbesondere wenn die Übungsaufgaben nicht allzu erfolgreich waren.

= Verwendete Materialien (Bücher, Skripte etc...)
Vorlesungsfolien, Repetitoriumsfolien

= \"Atmosphäre\" der Prüfung / Verhalten der Beisitzer
Freundliche aber fordernde Atmosphäre, bei Nicht-Wissen leiden alle Anwesenden darunter ;) Beisitzer hält sich im Hintergrund und notiert lediglich den Prüfungsverlauf.

= Prüfungsfragen
- Multidimensionales Datenmodell
- MOLAP: Typen (value per unit, flow, stock)
- ROLAP: Star-, Snow-Schema, Größenunterschiede?
- Star Join: Was ist das Problem? (Reihenfolge der Einzeljoins)
- Bitmap-Indizes: Ergebnis via AND Wie nutzen für den Join?, Wie komprimieren? (horizontal: RLE1, RLE2, vertikal)
- CUBE-Operator: Was ist das? Was ist das Problem? (Gruppierungen wiederverwenden; Wie? Smallest Parent etc)
- Iceberg Cubes, HAVING, Optimierung (Obergruppen ausschließen wenn Untergruppe schon nicht erfüllt)

= Note
2,0

= Fazit
Sehr faire Prüfung, Prof. Leser versucht mit allen Mitteln, vorhandenes Wissen zu finden. Dafür werden auch ggf. unangenehme Fragen gestellt.

Nr.PrüferFach
568 Leser Prof. Bioinformatik

Protokoll

= Datum der Prüfung
April 2012

= Benötigte Lernzeit als Empfehlung
10 Tage intensivlernen ohne große Vorkenntnisse

= Verwendete Materialien (Bücher, Skripte etc...)
Skript + Web

= \"Atmosphäre\" der Prüfung / Verhalten der Beisitzer
sehr entspannt mit Unipolitischer Diskussion zur Einstimmung

= Prüfungsfragen
Angefangen mit Wunschthema Phylogeny
 - Unterschiedliche Verfahren
 - Distanzbasiert im Detail
Umschwenken auf MSA
 - Sum of Pair mit Algorithmus
 - Clustal W (hier musste ich leider passen)
Sprung zu Keyword Trees
 - Erstellung/Suche/Komplexität

= Note (Optional)
1.7

= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)
harte Prüfung, da ich an vielen Stellen angeeckt bin und mich nicht immer gleich verständlich ausdrücken konnte. Prof. Lesers Hinweise helfen aber am Ende auf den Punkt zu kommen und führen zum Ergebnis. Alles in allem sehr zufrieden mit der Benotung. Wiederspiegelt auch ungefähr meinen Wissensstand

Nr.PrüferFach
569 Leser Prof. Data Warehousing und Data Mining

Protokoll

= Datum der Prüfung
März 2012

= Benötigte Lernzeit als Empfehlung
wenige Tage intensivlernen bei gutem Vorwissen

= Verwendete Materialien (Bücher, Skripte etc...)
Skript

= \"Atmosphäre\" der Prüfung / Verhalten der Beisitzer
sehr entspannte Atmosphäre und Auflockerung der Aufregung durch Gespräch über s Studium zu Beginn

= Prüfungsfragen
Einstieg Wunschthema Data Mining
 - Welche Verfahren
 - Detailabstieg in Klassifikation
 - Naive Bayes sehr detailliert mit eigenen Denkansätzen

Sprung zu logischer Optimierung
 - Partionierung Horizontal / Vertikal

ETL Prozess
 - Was ist das
 - Monolog bis zum Prüfungsende

= Note (Optional)
1.3

= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)
Sehr solide Prüfung mit Ansätzen zum weiterdenken, aber auch der ein oder anderen Kante zum aufreiben.

Nr.PrüferFach
578 Leser Prof. Informationsintegration

Protokoll

= Datum der Prüfung
13.08.12
= Benötigte Lernzeit als Empfehlung
2 Wochen
= Verwendete Materialien (Bücher, Skripte etc...)
Buch, Folien
= \"Atmosphäre\" der Prüfung / Verhalten der Beisitzer
Locker und entspannt.
= Prüfungsfragen

1. Architekturen
Parallele, verteilte und foderierte Datenbanken voneinander abgrenzen. Danach Mediator Wrapper Architektur erklären. Wie extrahiert ein Wrapper Daten auseiner Webquelle. DOM Baum ganz kurz erklären. Lose Kopplung erklären.

2. Schema SQL
Was kann es mehr als SQL.? Geschachtelte Deklarationen erklären. Auf was kann man zugreifen?

3. Containment Mapping
Zusammenhang mit Anfrageplanung erklären. Kriterien. Depth First und tröten facts erklären. Komplexität df erläutern. Kann man aufhören wenn man ein cm hat? Warum nicht? Am einfachen Beispiel zeigen warum cm Einfluss auf das Ergebnis hat.

4 Semi Joins
Semi join formal hinschreiben und erklären. Was ist ein semi join Programm? Reducer? Full reducer? Andere Optimierungsmöglixhkeiten (multithread, caching, multicast etc) nennen. Gilt join order Opting auch für 

= Note (Optional)
1.0
= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)
Was soll ich sagen. Kann mich nicht beschweren. Viel Stoff. Die Fragen gingen gefühlt nicht ganz so in die Tiefe wie bei DWDM was aber auch daran liegen kann, dass ich wusste was mich erwartet. Jedoch werden immer wieder Verständnisfragen eingestreut. Die Übungen sind nicht relevant.

Nr.PrüferFach
587 Leser Prof. DBS2 - Implementation von Datenbanken

Protokoll

= Datum der Prüfung
25.02.2013

= Benötigte Lernzeit als Empfehlung
Ich empfehle: 7 Tage Zeit. Es dauert, bis man alle Formeln und Beispiele durchgeacket und nachvollziehbar verstanden hat. 3 Tage Vollzeitlernen haben bei mir gereicht, jedoch konnte ich auch Kommilitonen fragen, wenn ich nicht weiter kam, die ein, zwei Dinge schon durchdrungen hatten. Ich empfehle hier besonders Lerngruppen, um die vielen Formeln und Beispiele auch zu verstehen. Gleiches dann auch kurz vor der Prüfung, wo jeder die Themen noch mal kurz erklärt bzw. auch sich selbst kontrolliert. Natürlich ist die Lernzeit Typ-abhängig!

= Verwendete Materialien (Bücher, Skripte etc...)
Hauptsächlich die Folien. Ich hatte mir das Buch >Datenbanken: Implementierungstechniken< von Saake, Heuer und Sattler noch ausgeliehen (aus der Bib), aber habe am Ende bis auf 1-2 Seiten nichts gelesen. Ansonsten viele Internetseiten zum Recherchieren der Formeln. (Google zeigte mir öfter als Treffer >Datenbanksysteme: Eine Einführung von Alfons Kemper,André Eickler< bei Google Books, was sich auch recht gut las)
Nicht zu verachten die Prüfungsprotokolle!!!! ... aber da du dies hier schon liest :)

= \"Atmosphäre\" der Prüfung / Verhalten der Beisitzer
Sehr entspannt. Da ich im 1. Masterjahrgang bin und es mir nicht so gut ging + starke Aufregung, dauert der Smalltalk etwas länger als die geplanten 5 Minuten. Er lenkte dann aber schon zur Prüfung, als es genug war. Der Beisitzer war ruhig, hat nur ab und zu mal genickt oder nen skeptischen Blick geworfen, den mal sich zu Herzen nehmen sollte und evtl. noch mal kurz nachdenkt. Ansonsten sagt Herr Leser einem aber auch, ob die Antwort in Ordnung ist oder nicht.

= Prüfungsfragen
Ich habe mit einem Wunschthema angefangen: Recovery
- Was ist Recovery, wann wird es gebraucht -> Fehlertypen
- Fehlertypen aufzählen + Beispiele, Recovery einordnen und Lösungsvorschläge für die anderen nennen (z.b. RAID für Plattenfehler)
- Erklären von REDO Logging: kurz erklärt, aber um den Vorteil herauszuheben auch kurz auf UNDO eingangen -> Informationsfluss / IO-Fluss
- Welche Abhängigkeiten gibt es bei der IO? Wie sieht der Zugriff auf IO dann aus? (batch/random) 
- Warum teilt man Log und Daten auf separate Platten
- Wie sieht das ganze bei UNDO/REDO aus?

Übergang zum Thema RAID:
- Erklären sie RAID 1 und 0 (Zeiten für Lesen/Schreiben, Ausfallsicherheit, Nettoverbrauch des Bruttoplatzes)
- - Was passiert bei kleinen Dateien mit wenigen Blöcken? Lohnt es sich hier? -> Da Seektime der statische und größte Faktor: weniger!
- Erklärung von RAID 1+0 (10): Wie sehen die genannten Punkte hier aus?
- - Wie schnell kann man bei RAID 10 lesen? (->mindestens 4fach, da mind. 4 Platten)
- Erklärung von RAID 5 (hier auch explizit nennen, dass Daten + Parität die Platte jeweils wechseln)
- - Wieviele Platten dürfen ausfallen (bei 3 Platten)? -> 1, wie kann man das steigern? Mirroring oder Parität häufiger speichern, wobei dann natürlich nur 1 Datenplatte maximal ausfallen darf + x Paritätplatten). < hier bin ich mir immer noch unsicher
- Wie sind die Ausfallzeiten einzuschätzen bei RAID 1 und 0? -> eher optimistisch, da idR. beide Platten nicht unabhängig ausfallen sondern dank Überspannung zusammen o.ä. (für 0 ebenfalls opt. auch wenn schon verringert durch MTTF/N)

Themawechsel zu Hashing
- Erklären sie allg. Hashing, wie bildet man eine Hashfunktion (z.b. über statistische Informationen, damit sie eine möglichst Gleichverteilung erstellt)
- - Wie viele Buckets erstellt man? Durch die Informationen hätte ich eben \"k\" gesagt, aber eine DB nutzt natürlich den ganzen Speicher, wenn möglich, also m Buckets
- - Wie werden die Daten aufgeteilt? -> alle lesen, hashen und wieder schreiben
- - Wie viel IO hat man hier? IdR 1 IO, aber durch Overflow-Buckets auch mehr möglich

- Dynamische Hashverfahren? > extensible und linear Hashing
- - Wie funktioniert extensible Hashing, wann wird ein Block gesplittet, wie passt sie sich dynamisch an?
- - -> Hashtabelle immer verdoppeln und Werte des Overflow-Blocks neu hashen und aufteilen; leere Buckets zeigen auf das bisherige Bucket
- - Aussagen zur Füllgarantie?
- - Fangfrage: Wenn man 50 Mio mal den gleichen Wert einfügt, wie groß wird die Hashtable (ohne Overflow)? --> Wenn dein Bucket nur 5 Werte fasst, reichen auch 6x gleicher Wert und die Hashtable würde dauernd splitten bis ins unendlich (<Antwort!), da die Werte nie aufgeteilt werden dank gleichem Hash < Hier habe ich erst falsch geantwortet, weil ich eine Formeln nennen wollte, bis er mir den Tipp gab, dass es eine Fangfrage ist..
- - Was passiert bei nicht unique (> doppelten) Werten? -> man braucht Overflow-Buckets, auch wenn bei extensible das nicht vorgesehen ist per se
- - Wie geht das löschen? -> Leere Buckets zusammenfassen, ggf. 2 Buckets mit jeweils unter der Hälfte an Werten zusammenfassen (je nach Implementierung)
- - Wann wird die Hashtabelle verkleinert: Wenn die >Local Depth< überall ungleich der >Global Depth< ist. (-> mindestens 50% der Buckets ohne eigenen Block)
- Erklären sie linear Hashing: Nur allgemein, welche Parameter braucht man, wie sieht die Cycle-Funktion aus, welche Bedingungen gibt es, was wird geteilt und welche Werte werden aufgeteilt

Ob meine Antworten hier jetzt richtig sind, sei mal dahin gestellt ... 

= Note (Optional)
1.0

= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)
Trotz der Aufregung, die sich auch nicht so recht legen wollte, eine gute Prüfung. Durch das Wunschthema, konnte ich zumindest anfangs punkten und man gewinnt Selbstvertrauen. Die detaillierten Nachfragen bringen einen immer wieder ins Grübeln, wo man jedoch kurz nachdenken sollte und dann antworten. Wenn man falsch antwortet, hat man ggf. auch Zeit es noch mal zu korrigieren, je nach Frage. Die Note hat mich sehr gefreut, hatte ja auch 1-2 Patzer drin, aber die großteils selbst korrigiert. --> Fehler & Nachdenken sind also erlaubt. 
Wenn man eine Frage vergisst / nicht ganz versteht, unbedingt nachhaken - bringt einem etwas Zeit zum Nachdenken sowie evtl. eine zusätzliche, andere Sichtweise auf das Problem. Kleine Hinweise werden auch gegeben, wenn man nicht weiterkommt bzw. in die falsche Richtung geht (bei mir bei local/global Depth @Extensible Hashing).

Nr.PrüferFach
592 Leser Prof. Text Analytics

Protokoll

= Datum der Prüfung
08.03.2013

= Benötigte Lernzeit als Empfehlung
1 Woche Minimum, wenn man im Semester nichts gemacht hat. Ich hätte gar nicht gedacht, dass es soooooo viel Stoff ist, aber das Wissen auf den Folien ist so komprimiert, dass man sehr viel können muss. Viel ergibt sich bei den späteren Vorlesungen auch, aber der große Teil liegt davor.

= Verwendete Materialien (Bücher, Skripte etc...)
Hauptsächlich die Folien, sowie 1-2 Kommilitonen, die auch das Buch \"IR\" teilweise gelesen haben. Zudem natürlich noch Internet für den Haufen an mathematischen Modellen.

= \"Atmosphäre\" der Prüfung / Verhalten der Beisitzer
Da ich vor kurzem erst  eine Prüfung bei ihm hatte, fiel der Smalltalk sehr kurz aus und man ist gleich gestartet. Der Beisitzer war ruhig und wie immer freundlich lächelnd :)

= Prüfungsfragen
Angefangen mit allgemeinem IR:
 - Evaluationsmethode: Precision, Recall, F-Measure
 - - Nachfrage: Warum F-Mesaure und nicht der Durchschnitt aus P und R? ([P+R]/2) Warum nicht sqrt(P^2 + R^2)? --> Weil man ganz leicht Systeme mit Recall 1 (alle Doks ausgeben) schaffen kann und dann die Kennzahl z.b. 0,5 ergibt, was unbrauchbar ist.
 - - Wie hängen P und R miteinander zusammen?
 - - Wie lassen sich P und R steigern und warum?

Welche IR Modelle kennen Sie? -> 4 Stück
 - Erläutern Sie das probabilistische Modell (Binary Independence Model) --> fand ich schwierig und habe hier auch viel rumgestammelt
 - Erläutern Sie LSI --> fand ich auch schwer -> Rumgestammel
 - - hier sollte ich schon mathematischer werden und auch erklären, was die Konzepte dann dort sind und wieso man die Matrix zerlegt etc.
 - - Nachfragen: Würde Google solch ein System nutzen? Was wäre, wenn sie das Modell im Vorfeld berechnet hätten, wie wäre die Suche?

Erklären Sie den Boyer Moore Algorithmus. (Substring-Suche, hier ist das Wort wichtig, dass man nicht \"Wörter/Token/Terme\" sucht)
 - Komplexitäten nennen: Worst und Average
 - Leider meinte ich, dass durch die GSR man ein riesiges Array braucht, aber eigentlich braucht man ja nur eins der Länge |s|-2 (s=substring), weil man für jedes Suffix ja nur speichern muss, wo es noch vorkommt und zwar nur das rechteste Vorkommen (relativ zum Suffix selber --> links davon somit).

Erklären Sie NER
 - Sinn/Ziel/Was ist eine Domäne? Wie sehen die aus? Was für Typen gibt es (geschlossen / offene)?
 - Welche Ansätze kennen Sie?
 - Würden Sie Dictionaries nutzen? --> Ich meinte ja, weil es in der Übung immer gute Resultate geliefert hat, natürlich unter der Annahme, dass das Dict gut gepflegt ist
 - Rule-based sowie ML musste ich nicht mehr erläutern, hatte bei >Ansätze< jedoch schon jeweils 1 Satz dazu gesagt, aber die Zeit war um

= Note (Optional)
1.3

= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)
Die Benotung ist überaus fair! Ich sehe zwar, dass ich viele Themen abgearbeitet habe, aber ich wusste auch wirklich einige Dinge nicht und meine Erläuterungen der beiden IR Modelle waren gelinde gesagt schlecht. Dort habe ich viel rumgestammelt, weil ich die Modelle schwer finde zu erklären, aber Herr Leser bemüht sich die Aussagen zu verstehen und die Informationen herauszufiltern aus dem Wulst an Aussagen. Die Note war auf Grund der Probleme (bei IR Evaluation allgemein, sowie den IR Modellen) \"mit gutem Willen\" :)

Nr.PrüferFach
593 Leser Prof. Text Analytics

Protokoll

= Datum der Prüfung
08.03.2013

= Benötigte Lernzeit als Empfehlung

wenn man im Semester nicht viel gemacht hat, mind. 1 Woche alle Folien durchgehen und Grundwissensbasis schaffen. Am besten dann noch 2-3 Tage zusammen setzen mit Kommilitonen und sich gegenseitig die Sachen erklären, das hilft und festigt ungemein.

= Verwendete Materialien (Bücher, Skripte etc...)
Folien, Internet für diverse mathematische Modelle oder Begriffserklärungen, dict.cc :P

= \"Atmosphäre\" der Prüfung / Verhalten der Beisitzer
Die Atmosphäre ist bei Prof. Leser wie immer super entspannt. Vorher viel Smalltalk, wenn er nicht gerade ganz schnell los muss nach der Prüfung ^^ Herr Leser kann auch schon mal im Raum hin und her laufen, wie man es aus seiner VL kennt. Der nette Beisitzer schreibt nur mit.

= Prüfungsfragen
ich wurde gefragt, ob ich ein Lieblingsthema hätte und habe kurz überlegt. Ich meinte dann IR-Modelle oder Stringmatching. Zu meiner Freude kam dann sogar beides =)
> IR-Modelle
- also welche IR-Modelle gibt es
- Bool\'sches Modell erklären: wie funktioniert\'s, Vor- und Nachteile
- VSM erklären: Vektorraum?; Dokumente sind Punkte im Raum?; wie sehen die Vektoren für die Dokumente aus?; was für Werte stehen in den Vektoren?; kann man auch andere Werte nehmen? was für welche (1/0, term weights, mit IDF, mit log(IDF) etc.)?; was bewirken die IDF-Werte? sind diese immer sinnvoll oder kann man sie auch weglassen? wann?; wie funktioniert das Ranking (Winkel mit cos -> Formel)?

> Stringmatching mit Boyer-Moore
 - wie funktioniert das: Pattern wird gegen Template gematched von anfang zum Ende, aber die Zeichen von rechts nach links verglichen; beim BM will man nicht alle jedes Zeichen testen, indem man springt
 - Bad Character Rule (EBCR)
 - Good Suffix Rule
 - Komplexität (Average O(n + m), Worst O(n*m), Best-Case O(n/m); n=|T|; m=|P| )
 - am besten für die Regeln ein Schema aufmalen, das hilft Prüfer und Prüfling

> Named Entity Recognition 
- wofür ist das da, warum macht man das?
- welche Möglichkeiten gab es? (Dictionary-based, Rule-based, Machine-Learning-based)
 - Vor- und Nachtteile von Dictionary-based und ML-based
- braucht ML-based ein Trainingscorpus? kann man nicht einfach über ein Dictionary lernen? (nein, ein dictionary hat keine sequentiellen Informationen. darüber kann kein HMM gelernt werden)
- können dictonary-based mit Hynonymen klarkommen? (nein, da fehlt der Kontext zu den verschiedenen semantischen Konzepten)

> über die Hynonymunterscheidung kamen wir dann am Ende noch zu Word Sense Disambiguiation, aber das Thema hatte ich beim Lernen nur überflogen, da ich darauf spekuliert habe, dass soweit hinten kein Thema rankommt :P

= Note (Optional)
1,7

= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)
war selber über die Note erstaunt, hatte nicht so einen guten Eindruck. Hätte ich noch zu WSD was gewusst, wäre es eine 1,3 geworden. Prof. Lesers Hobby ist viele Transferfragen zu stellen, um zu sehen, ob man Zusammenhänge und die Modelle im Ganzen verstanden hat. 

Nr.PrüferFach
608 Leser Prof. Algorithmen und Datenstrukturen

Protokoll

Datum der Prüfung:
16.7.2013
Benötigte Lernzeit als Empfehlung:
2 Wochen
Aufgaben:
Das Gedächnisprotokoll der Klausur mit allen Aufgaben und dazugehörigen Puntzahlen liegt als .pdf vor. Ich habe keine Möglichkeit gefunden, diese auf eine Fachschaftsseite hochzuladen, deshalb liegt sie vorrübergehend in der Dropbox:

https://www.dropbox.com/s/888q80fnhalseir/Klausurprotokoll.pdf

Falls der Link nicht mehr funktioniert, oder jemand eine bessere Idee als Dropbox hat bitte eine kurze Email an jonas.marasus@cms.hu-berlin.de schicken, dann lade ich die datei anderswo hoch.

Nr.PrüferFach
715 Leser Prof. Information Retrieval

Protokoll

= Datum der Prüfung
16.03.2015

= Benötigte Lernzeit als Empfehlung
2 Wochen bei regelmäßigem Besuch der Veranstaltungen

= Verwendete Materialien (Bücher, Skripte etc...)
Vorlesungsfolien und Lehrbuch "Introduction to Information Retrieval [Manning, Schütze]

= "Atmosphäre" der Prüfung / Verhalten der Beisitzer
sehr angenehme Prüfung, kleiner Smalltalk von Herr Lesers Seite um Nervostität zu nehmen.
Beisitzer war ruhig und hat protokolliert.
Fragen haben sich sehr auf Vorlesungsfolien bezogen; er fragt allerdings auch nach möglichen Implementierungen - man sollter also zu den meisten Verfahren auch eine Idee haben, wie man diese effizient implementiert.

= Prüfungsfragen
Was muss man mit den Dokumenten machen, bevor man sie indexieren kann?
-Preprocessingverfahren aufzählen
-Lemmatizing vs Stemming Pro & Contra aufzählen

Annahme Preprocessing ist fertig - Wie kann man die Indexierung effizient implementieren?
-Gesucht war eigentlich der block-based-Ansatz aus der Vorlesung - der fiel mir aber nicht komplett ein, also habe ich mir schnell einen alternativen Algorithmus ausgedacht, der auch akzeptiert wurde - daraufhin wurde allerdings gefragt, wie man diesen denn effizient parallelisieren könne

Was ist Language Modelling?
-Definition und Beispielanwendungen aufzählen
Wie wird es implementiert?
-N-Gramm-Frequenzen zählen, man benötigt einen Test-Corpus
Welchen Corpus benutzt T9?
-vorgegebener Corpus sowie gesammelte Nutzereingaben
Welches Problem tritt beim Language Modelling auf?
-Data Sparsity
Warum löst ein größerer Corpus das Problem nicht und warum tritt es auf?
-große N-Gramme besitzen exponentiell viele Kombinationen an Wörtern, kann durch größere Corpora nicht wirklich abgedeckt werden (Annahme Alphabet Größe 100, sowieso 4-Gramm - wie viele Kombinationen? 100^4)
Besitzt eine natürliche Sprache weitaus mehr oder weniger Wortkombinationen als Kombinationen von Wörtern bei großen N-Grammen?
-weitaus weniger, Betrachtung als semantisch unabhängige Wörter entspricht nicht der reellen Sprache
Wie kann man das Data-Sparsity-Problem lösen?
-Smoothing
  -Laplace (welches Problem tritt auf? - zu viel Wahrscheinlichkeitsmaße auf unbekannte Ereignisse)
  -Lidstone (wie funktioniert das Verfahren zum Finden von Lambda?)
  -Back-Off-Model (Erklärung + alternativer Ansatz der gewichteten N-Gramm-Modell-Gleichung)

= Note (Optional)
1,7

= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)
Sehr angenehme Prüfung - es wird sich bemüht, dass man die Nervosität etwas abwirft bevor es zu den Fragen kommt.
Benotung war überraschend positiv, da ich zwischendrin etwas gestrauchelt habe - insofern sehr angemessene und studentenfreundliche Benotung

Nr.PrüferFach
733 Leser Prof. Algorithmen und Datenstrukturen

Protokoll

= Datum der Prüfung
10.9.15
= Benötigte Lernzeit als Empfehlung
4 Wochen
= Verwendete Materialien (Bücher, Skripte etc...)
Folien aus Vorlesung, Übung, Tutorium; Internet; Ottmann/Widmayer
= "Atmosphäre" der Prüfung / Verhalten der Beisitzer
dritter Prüfungsversuch -> starke Nervosität
Leser beginnt mit etwas Smalltalk (Wie läuft das Studium? Warum 2 mal durchgefallen), Beisitzer waren A. Nonym und ein Protokollant, Stift und Papier wird gestellt
Beisitzer sagen nichts
= Prüfungsfragen
Quick Sort --- wie funktioniert es genau? Komplexität von Worst/Average/Best-Case herleiten - kein genauer Beweis aber gut argumentieren können
Merge Sort --- wie funktioniert es genau? Komplexität von Worst/Average/Best-Case herleiten - kein genauer Beweis aber gut argumentieren können
Suchbäume --- Definition, Wie groß?, Kosten von Einfügen/Löschen, wie funktioniert das Löschen
Starke/schwache Zusammenhangskomponenten --- Was ist das? Wie berechnet man das? Kosaraju-Algorithmus ausführen
= Note (Optional)
bestanden ;)
= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)
Die behandelten Themen werden sehr detailliert behandelt, Leser hilft bei Unsicherheiten weiter, Prüfung ist eher schlecht gelaufen

Nr.PrüferFach
738 Leser Prof. Algorithmen und Datenstrukturen

Protokoll

= Datum der Prüfung
30.11.15
= Benötigte Lernzeit als Empfehlung
Ich habe mich 2 Wochen im voraus auf die Prüfung vorbereitet. 
= Verwendete Materialien (Bücher, Skripte etc...)
Ich bin sämtliche Foliensätze durchgegangen und habe Definitionen herausgearbeitet. Der Prüfer möchte ungern den Bereich des Lernens eingrenzen, dennoch werde keine Bewesie oder ähnliches in der Prüfung besprochen. 
= "Atmosphäre" der Prüfung / Verhalten der Beisitzer
Herr Leser war sehr freundlich. Leitete das Gespräch und nahm mir die Nervösität, durch ein wenig Smalltalk, zum Beginn der Prüfung. 
Die Beisitzer enthalten sich eigentlich den Gesprächen. 
= Prüfungsfragen
Leser hatte mir im voraus gesagt, das Sortierverfahren ein beliebtes Thema seien. Demnach besprachen wir Quick- und Mergesort. Er wollte für jedes Verfahren eine kurze Erklärung, eine Konstelation von Best- und WorstCase und anhand dieser erklärt bekommen, wie die Fälle zustande kommen. 
Danach ging er zum Thema "Hashing" über. Wozu macht man dies?, Welche Strategien gibt es? (Overflow, Open) Welche Unterschiede besitzen sie? Genaue Beispiele beider Strategien(direct chainning/seperate chainning; lineares H., double H.). 
Zum Schluss stellte er mich vor die Wahl: Suchbäume oder Graphen - Suchbäume war meine Wahl:
Was sind allgemein Suchbäume? Min und Max Höhe eines Suchbaumes und zum Schluss das Löschen eines Knotens in einem Suchbaum. 
= Note (Optional)
Ich habe mit 3.0 bestanden. Konnte auf vieles eine Antwort geben. Es haben aber Zusammenhänge zwischen einzelnen Aussagen gefehlt, weswegen die Note zustande kam. 
= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)
Sehr angenehme Prüfung. 
Man sollte vieles hinterfragen beim Lernen, sodass man wirklich sämtliche Zusammenhänge gut formuliert wiedergeben kann. Er wird viel hinterfragen!

Nr.PrüferFach
753 Leser Prof. Bioinformatik

Protokoll

= Datum der Prüfung
29. Juli 2016

= Benötigte Lernzeit als Empfehlung
2 Wochen

= Verwendete Materialien (Bücher, Skripte etc...)
Skript, Wikipedia

= "Atmosphäre" der Prüfung / Verhalten der Beisitzer
schriftliche Prüfung!

= Prüfungsfragen

AUFGABE 1 (PSWM)

Gegeben: - eine PSWM, 6 Spalten (Positionen), 4 Zeilen (A, C, G, T)
- Sequenz S der Länge 7

a) Welche Sequenz erzeugt den höchsten Score für M? Wie hoch ist die Wahrscheinlichkeit für diese Sequenz, wenn diese unter M entstanden ist?

b) Log Odds Ratio berechnen für alle Subsequenzen von S, die auf M angewendet werden können

c) Was beschreibt das Log Odds Ratio?

AUFGABE 2 (Local Alignment)

Gegeben sind die Scores: Indel -2, Mismatch -1, Match +1

2 Strings der Länge 7 gegeben

a) In gegebener Tabelle mit Algorithmus optimale Local Alignment Score bestimmen

b) alle optimalen Local Alignments angeben (ohne “Überhang” / Zeichen über das Alignment heraus)

c) formale Definition von Dotplots angeben

AUFGABE 3 (BLAST)

a) Was macht BLAST? Warum haben wir es als Heuristik bezeichnet?

b) 2 Strings D1 und D2 gegeben, Penalty für Replacement -1, Match +1, Threshold t=3
Seeds bestimmen, Positionen in D1 und D2 angeben

c) Wie kann man Recall erhöhen durch Änderung von t oder q? Was muss man dafür in Kauf nehmen?

d) Welche 2 entscheidenden Veränderungen wurden zu BLAST2 vorgenommen?

AUFGABE 4 (PPI)

a) Skalenfreie Netzwerke definieren, intuitiv die Struktur erklären

b) In-betwenness Algorithmus in Pseudocode schreiben mit gegebenen Methoden:

shortestPath(s, t) - bestimmt alle kürzesten Pfade zwischen s und t als Liste von Listen
contains(L, s) - bestimmt, ob s in Liste L enthalten

der in-betweennes-Wert bc(v) für alle Knoten v des Graphen berechnet. In-betweennes war in der Aufgabenstellung ausführlich erklärt. 

c) Yeast2Hybrid Verfahren erklären, was will man damit herausfinden?

AUFGABE 5

a) Wie viele Gene hat der Mensch?
Wie viele verschiedene Chromosomen hat eine Frau?
Wie viele Basen hat ihr Genom?

b) Wie viele Aminosäuren hat ein humanes Protein mindestens und durchschnittlich? Was ist Splicing? Was ist differentielles Splicing?

c) Was ist ein Gene Expression Microarray mit Oligoprobes? Was will man damit herausfinden? Warum gibt es mehr Probes als es Gene gibt?

AUFGABE 6 (DBN)

Funktionen gegeben:
fA(B) = not B
fB(C,D) = C or D
fC(A,D) = not A and not D
fD(A,B) = A or B

Anfangszustand 1 / 1 / 1 / 0

a) Tabelle ausfüllen (Folgezustände berechnen)

b) Definieren, was Punktattraktor ist, einen aus dem Beispiel von a) angeben

c) Beweisen, dass jedes DBN mit endlicher Knotenanzahl einen zyklischen Attraktor besitzt.

AUFGABE 7

a) Algorithmus findet 15 Matches, 12 davon sind richtig, insgesamt gäbe es 21 Matches, 400 Einträge in der DB
Precision und Recall bestimmen

b) Algorithmus findet 31 Matches, 29 davon sind richtig, es gibt 30 Matches die nicht erkannt wurden
Precision und Recall bestimmen

Nr.PrüferFach
783 Leser Prof. DBS2 - Implementation von Datenbanken

Protokoll

= Datum der Prüfung
28.02.2017

= Benötigte Lernzeit als Empfehlung
Habe verteilt über ~2 Wochen die Kapitel für mich zusammengefasst (also etwa 1 pro Tag) und dann direkt vor der Prüfung noch 5 Tage zum Lernen Zeit gehabt. Ist schon sehr viel Stoff wenn man wirklich tief einsteigen will, mit den 5 Tagen bin ich so gerade ausgekommen.

= Verwendete Materialien (Bücher, Skripte etc...)
Skript, Saake (Grundlage für das Skript)

= "Atmosphäre" der Prüfung / Verhalten der Beisitzer
langer Smalltalk, genauso sympathisch wie sonst auch

= Prüfungsfragen
Im Gegensatz zu den etwas älteren Prüfungsprotokollen gab es kein Wunschthema zum Einstieg (auch bei meinen beiden Vorgängern nicht).

Themen waren Speicherarchitektur, Joins (mit Komplexität und im Vergleich) und in dem Kontext Merge-Sort (auch mit Komplexität) sowie Hashing (Grundlagen + ein dyn. Verfahren vorstellen). 

Prof. Leser hilft schnell auf die Sprünge wenn man mal an einer Frage/Stelle hängt und formuliert näher oder um. 

= Note (Optional)
1,3

= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)
Benotung angemessen für die Leistung, und wie erwartet und von Prof. Leser angekündigt - Bestnoten werden nicht verschenkt, aber wer sich etwas auskennt braucht auch keine Sorge haben. Wer eine 1,0 will sollte souverän auftreten ;)

Nr.PrüferFach
814 Leser Prof. Algorithmen und Datenstrukturen

Protokoll

Datum: 29.09.2017
Zeit: 150 Minuten
Hilfsmittel: Keine
Atomsphäre: Sehr gute und ruhige Atmosphäre, Prof und Helfer / Korrektoren alle sehr freundlich :)
Lern-Materialien: Leute ihr müsst zu jeder Vorlesung und Übung. 
In der Klausur wurde so ziemlich alles abgefragt.
Viel Zeit zum Überlegen war nicht, ihr lest euch die Aufgabe durch und müsst
die sofort bearbeiten. Sonst scheiterts zeitlich.
Lest euch aber die Aufgaben SORGFÄLTIG durch. Nicht nur den ersten Satz durchlesen
und denken "ach so geht das" und dann einfach loslegen. Wisst ihr bestimmt, aber will ja nur sagen.. ^^
Neben Vorlesung und Übung gibt es natürlich auch genug guten Stoff im Internet, insbesondere
auf Wikipedia, stack overflow und youtube.
Naja ich hoffe dieses Gedankenprotokoll wird einigen von euch helfen. Ich hatte genug Stress und Angst mit der Prüfung, und
mir dabei noch alles zu merken was gefragt wurde war für mich persönlich etwas zu viel.
Aber ich habe mein Bestes getan und ich hoffe ihr werdet alles gut überstehen :)

FYI: Die Reihenfolge der Aufgaben ist falsch.

1.1 Zahlenfolge gegeben. Trage die Zahlen in Hashtabelle ein mit linearer Sondierung
1.2 .. mit doppeltem Hashing
1.3, 1.4 Weitere Aufgaben zu Hashing, irgendwas mit Tombs (haben aber nicht so viele Punkte gebracht)

2. Array mit Zahlen gegeben
2.1 Mergesort (grafisch darstellen)
2.2 Bucketsort mit Alphabet {0,1,2} (grafisch darstellen)
2.3 Worst- und Best-Case von: Mergesort, Bubblesort, Quicksort angeben

3. Suche
3.1 Funktionsweise von binärer Suche und Interpolationssuche kurz erläutern
3.2 Zwei verschiedene allgemeine Anordnung von Arrays. Worst- und Best-Case von
    Binärer Suche, Interpolationssuche und Fibonacci Suche angeben

4. Heaps
4.1 Kann man Heapsort in-place implementieren, ohne die Laufzeit zu strapazieren (mit Begründung)
4.2 Worst-Case Laufzeit angeben, um in einem max-Heap das zweitgrößte Element zu finden (ohne Löschen)
4.3 Worst-Case Laufzeit angeben, um in einem min-Heap das zweitgrößte Element zu finden (ohne Löschen)
4.4 Worst-Case Laufzeit angeben, um in einem AVL-Baum das zweitgrößte Element zu finden (ohne Löschen)

5. (AVL-)Bäume
5.1 AVL-Baum einen bestimmten Knoten entfernen -> Rotationen erforderlich
5.2 größerer AVL-Baum einen bestimmten Knoten entfernen -> Rotationen erforderlich
5.3 binärer Suchbaum gegeben, wobei die Knoten Buchstaben waren. Finde geheime Nachricht
(pre-order / post-order / in-order Traversierung erforderlich)

6. Amortisierte Analyse
Kam völlig unerwartet, kann leider keine Infos dazu geben.

7. Allgemein Algorithmenentwurf
7.1 Erstelle Algorithmus, der erkennt, ob ein Array eine Permutation des anderen Arrays ist, in O(nlogn)
7.2 .. in O(n)
7.3 Vergessen..

8.
8.1 4 Funktionen gegeben, ordne nach asymptotischen Wachstum (ohne Begründung)
8.2 Das gleiche für 4 andere Funktionen
8.3 Zwei Funktionen f,g gebeben. Zeige, dass f in O(g)
8.4 Zeige, dass f nicht in O(g)
8.5 Beweise, dass es eine Funktion gibt, sodass gilt: f ist in O(g) UND f ist in Omega(g)
8.6 Das gleiche nur mit klein o und klein Omega

9.
Aufgabe mit sehr viel Text und einer Adjazenzmatrix gegeben. 
Floyd-Warshall Algorithmus war gefragt, war aber nicht direkt
vom Text ersichtlich.
9.1 Finde einen Weg von s1 nach s7, wobei die maximale Anzahl von Knoten vorkommen (4 Punkte)
9.2 Entwerfe Algorithmus, der irgendwelchen Weg zwischen zwei Knoten ermitteln, sry vergessen (6 Punkte)
9.3 Vergessen (3 Punkte)

10. Minimaler Spannbaum
Tabellle gegeben. Trage jeden einzelnen Schritt vom Kruskal Algorithmus in Tabelle
und zeichne den durch Kruskal entstandenen Graphen.


Nr.PrüferFach
830 Leser Prof. Data Warehousing und Data Mining

Protokoll

23.02.2018 (schriftlich)= Datum der Prüfung
2-3 Wochen = Benötigte Lernzeit als Empfehlung
Wolfgang Lehner: Datenbanktechnologie für Data Warehouse Systeme, Skript = Verwendete Materialien (Bücher, Skripte etc...)
Schriftlich, normal halt. Es gab Schmierpapier, kein Taschenrechner etc., 120 Minuten Schreibzeit = "Atmosphäre" der Prüfung / Verhalten der Beisitzer

Prüfungsfragen:
Aufgabe 1 (9 Punkte):
OLAP versus OLTP Tabelle. Einige Zeilen wurden abgefragt, man musste in Stichpunkten die Inhalte füllen, wie in der Folie.
Gefragt war: Typische Operationen, Typische Anfragen, Daten pro Operation, Datenart, Modellierung

Aufgabe 2 (2+2+2+1+1+1 = 9 Punkte):
a: Geben sie eine exakte Definition an von: Algebraische Funktion, Distributive Funktion, Holistische Funktion.
b: Für jedes zwei Beispiele nennen
(Achtung, hier hat Leser die Reihenfolge vertauscht, wie sie in den Folien war)

Aufgabe 3 (5+5 = 10 Punkte):
Man musste zwei OLAP: SQL Analytical Functions-Anfragen schreiben.
a: Anfrage mit RANK() OVER(ORDER BY ...) FROM SELECT (...)
Also ein Sub-Select. Es gab 2 Punkte für das Sub-Select, 1 Punkt für ORDER BY und 1 Punkt für RANK().

b: SELECT tag, monat, jahr, SUM(...), Product_ID FROM ... GROUP BY ROLLUP(jahr, monat, tag), Product_ID
Es war wichtig zu beachten Product_ID in den GROUP BY mit anzugeben.

Evtl. abweichende Anfrage, kleine Unsicherheit ;)


Aufgabe 4 (4*1,5+9 = 15 Punkte):
Query Containment.
a: Definition von Query Containment (die 4 Punkte aus dem Skript wiedergeben)
b: Containment Mapping nach Algorithmus durchführen und sagen ob gilt Q ist enthalten in V.
Man musste nach Suchbaum arbeiten, also nicht Schritte überspringen!

Punkt Depth-First Algorithmus aus dem Skript zu MV_Optimierung, so wie im Beispiel auf Folie 34.

Aufgabe 5 (9 + 4 + 2 = 15 Punkte):
a: Sorted Neighborhood (Merge-Purge) - Algorithmus in Pseudocode aufschreiben.
Wichtig war es wirklich Pseudocode zu verwenden. Wurde in der Vorlesung nur an die Tafel geschrieben.
Diese Aufgabe wurde besonders streng bewertet.

b: Laufzeiten angeben
Also für Sortieren und für Vergleiche.

c: Worauf muss man achten beim Algorithmus?
Genauigkeit ist schlecht. Entweder Window-Size größer machen oder Multipass-Verfahren.

b und c wurden aber normal bis nett bewertet.

Aufgabe 6 (5+5 = 10 Punkte):
Gegeben eine SQL Anfrage mit GROUP BY. Man musste erklären, wie man den GROUP BY-Operator implementieren kann bei der Anfrage
und wie viele Durchgänge durch die Tupel gemacht werden müssen.

a: Wenn die Tupel nicht sortiert vorliegen.
Hash-Partitionierung

b: Wenn die Tupel sortiert vorliegen.
Implementierung durch Sortierung
Ein Punkt für Pipelining.


Aufgabe 7 (2+4+4 = 10 Punkte):
Bayes:
Gegeben Tabelle mit Geschelcht, Gewicht und Größe zur Person.
a: Man bekam auch eine leere Tabelle. In diese sollte man das Gewicht und die Größe in drei Intervalle einteilen.
Das Gewicht nach Equi-Width-Binning, die Größe nach Equi-Depth-Binning.

b: Notwendige Wahrscheinlichkeiten berechnen (A-Priori - Wahrscheinlichkeiten). Wahrscheinlichkeiten und Bedingte Wahrscheinlichkeiten.
Einfach Brüche angeben, konnte man gut durchzählen.

c: Zwei Personen mit Attributen gegeben. Diese klassifizieren. Dafür einfach Rechenweg (welche Wahrscheinlichkeiten man nimmt) schreiben
und dann die Werte dafür angeben, man musste nicht ausrechnen.

Aufgabe 8 (4+8 = 12 Punkte):
Man bekam eine Tabelle mit Einkäufen. Jede Zelle enthielt einen Einkauf (z.B. Milch, Sahne, Marmelade).

a: Man musste Confidence und Support für zwei Fälle angeben. (Auch einfach der Bruch).

b: A-Priori-Algorithmus anwenden. Wichtig war es kenntlich zu machen, aus welchen Teilmengen man in jedem Schritt die Einkäufe wählt.

Durchschnitt lag bei 3,06 = Note (Optional)
= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)
Klausur enthielt 90 Punkte. Mit 72 gab es bereits eine 1,0
den Durchschnitt hatte man bei 48 Punkten. Beste Note: 1,7
Schwierigkeit der Aufgabe 5a und 6 wurden bei der Notenskala berücksichtigt.
Teils doch streng bewertet. Zeit war angemessen verfügbar.
Manche Aufgaben waren schwierig zu verstehen. Empfehlung: In der Klausur nachfragen, wie das gemeint ist.

yo K.E.T.A.

Nr.PrüferFach
854 Leser Prof. Bioinformatik

Protokoll

= Datum der Prüfung SS2018

= Prüfungsfragen
1. Stringmatching
Text- und Patternstring gegeben mit P unter T und einem gemarkerten Mismatch.
1.a Angeben, um wieviele Postionen mit der Bad Character Rule geshiftet wird und begründen.
1.b Angeben, um wieviele Postionen mit der Good Suffix Rule geshiftet wird und begründen.
1.c T der Länge 12 und P der Länge 4 angeben, für die der Boyer Moore die minimale Anzahl an Vergleichen benötigt. Die Anzahl der Vergleiche in O-Notation angeben.

2. Sequenzalignment
2.a Lokalen Alignment Score für X=GGCTG und Y=GCTGTA berechnen. InsDel=-2, Mismatches=-1, Matches=1
2.b Worst-Case und Average-Case der Berechnung des lokalen Alignmentscores zweier Sequenzen angeben und begründen. Zu Rande gezogene Basisoperationen angeben.

3. Eiweißfaltung
3.a Drei Effekte nennen und erklären, die in realen Proteinen eine Rolle in der Faltung spielen und die der Chou-Fasman Algorithmus nicht erfasst.
3.b Chou-Fasman auf eine gegebene Aminosäurenabfolge anwenden.

4. PPI
4.a Skalenfreies Netzwerk definieren, intuitiv und als Formel.
4.b Zwei gegebene Graphen, entscheiden ob sie vermutlich skalenfrei/zufällig sind (Ja/Nein ankreuzen).
4.c Algorithmus für Betweennes-Centrality in Pseudocode niederschreiben. Algorithmus war erklärt und es standen zwei Hilfsfunktionen zur Verfügung.

5. Microarrays
5.a 4 spezifische Gründe nennen, warum Messungen vor der Analyse normalisiert werden müssen.
5.b Technologien zur Messung der Genexpression in einer Tabelle charakterisieren. Dabei war nur Microarrays als Eintrag gegeben, zwei weitere Technologien mussten hinzugefügt werden. Für alle drei dann die Spalten 'Quantitativ oder Qualitativ' und 'Anzahl der Gene (niedirg/mittel/hoch)' ausfüllen.
5.c Erklären wie man mit Microarrays Genexpression misst (Teilschritte mit Erklärung).

6. Biostatistik
6.a Tabelle mit p-Value und N gegeben, Bonferroni berechnen.
6.b Zwei Visualisierungsmethoden für Genexpression erklären. Zeichen und erklärende Beschriftung der Achsen ausreichend.
6.c Erklären, warum für die Bestimmung der differentiellen Expression Log-Fold Change und statistische Tests (p-Value, T-Test) kombiniert werden müssen.

7. Bool'sche Netzwerke
7.a Tabelle ausfüllen, Startzustand war 0/0/1/0
Formeln:
fA(B)=B
fB(C,D)=notC and D
fC(A,D)=A or D
fD(A,B)=notA or B
7.b Attraktor und seine Unterarten erklären und beantworten, ob das obige Netzwerk einen hat, und wenn ja, welchen.

Nr.PrüferFach
897 Leser Prof. Bioinformatik

Protokoll

= Datum der Prüfung
01.08.2019

= Benötigte Lernzeit als Empfehlung
2 Wochen (Wenn man gut ist vielleicht nur 1 Woche)

= Verwendete Materialien (Bücher, Skripte etc...)
Habe nur die VL Folien zum lernen verwendet, auch wenn Herr Leser mehrmals betont hat, dass wir Bücher lesen sollten.

= "Atmosphäre" der Prüfung / Verhalten der Beisitzer
Herr Leser hatte erstmal keinen Schlüssel und wir mussten 20 Minuten warten. Sonst war alles normal. (Schriftliche Prüfung eben)

= Prüfungsfragen

1. PSWM (Positon - specific- weight - matrix)

Gegeben war eine PSWM mit folgenden Aufgaben: 

(a) Bestimmen Sie die Sequenzen, welche den höchsten score hat.

(b) Bestimmen Sie den log-odd-score für S=CTGATG im Zusammenhang mit dem Zero-Modell

(c) Beschreiben Sie, wie man eine PSWM bestimmt, wenn man M Sequenzen geben hat und alle eine Länge von q haben.

(d) Wie viele Zeilen und Spalten hat diese PSWM?

2. Alignment
 
(a) Welche Unterschiede gibt es bei der Initialisierung der ersten Zeilen/Spalte, zwischen globalen und lokalen Alignment? Begründen Sie woher dieser Unterschied kommt!

(b) Geben Sie alle lokalen Alignment scores folgender Sequenzen an: S1 = GTACTA , S2 = TAGGTA

(c) Markieren Sie das Backtracking im dotplot und geben sie eine Sequenz an. 

3. BLAST

(a) Welches Problem löst BLAST? Warum ist BLAST eine Heuristik? Kann BLAST mit Fehlern beim Match arbeiten, wenn ja mit welchen?

(b) q = 3, t = 3 und eine Datenbank mit den Sequenzen D1 = ATGCCCTCAT, D2 = CATGCCTG. Wo findet BLAST Seeds mit der Sequenz S = CATGC

4. Biologische Grundkenntnisse

(a) Beschreiben Sie wie genau ein Gen in ein Protein verwandelt wird! Benutzen Sie die richtigen Fachbegriffe! 

(b) Wie viele verschiedene Chromosomen hat eine Frau? Wie viele Gene hat ein Genom? Wie viele Basen hat ein Genom?

(c) 3 Technologien zur Messung von Genexpression nennen und einordnen ob diese Qualitativ/Quantitativ messen und wie viele Gene (viel oder wenig).

(d) Wie arbeiten Genom Assembly? Beschreiben Sie!

5. PPI (protein - protein - interaction)

(a) Definieren Sie ein skalenfreies Netzwerk und beschreiben sie es intuitiv!

(b) Gegeben waren zwei Netzwerke und man musste sagen welches skalenfrei ist und welches zufällig.

(c) Nennen Sie 2 Vorteile und 2 Nachteile vom Massenspektrometer im Bezug auf den Informationsgewinn für PPI!

6. Boolean Netzwerke 

(a) Gegeben war ein leeres System (Tabelle) mit Startzuständen welche auszufüllen war. Außerdem war noch gegeben: f_A(B,D) = notB ^ notD
f_B(A,D) = A v B
f_C(A) = notA
f_D(A,B) = A v D

(b) Befinden sich in (a) ein Punktaktraktor? Geben Sie ihn an!

(c) Beweisen Sie, dass in jedem DBN mit endlicher Knotenanzahl ein zyklischer Attraktor ist!

7. Biostatistik 

(a) Gegeben waren p-Werte und 10 Sequenzen. Bonferoni-Wert musste ausgerechnet werden für die ersten zwei und den letzten. 

(b) Beschreiben sie den Zusammenhang zwischen t-Wert, Nullhypothese und p-Wert! 

(c) Beschreiben sie das Vorgehen eines t-Test in der richtigen Reihenfolge! 

(d) Warum muss für die Bestimmung der Signifikanz der log - fold - change UND die Varianz betrachtet werden?


= Note (Optional)
2,0

= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)
Im Nachhinein relativ einfach gegen dass was man normalerweise so schreibt. Es gibt viele Themen, welche miteinander alle kaum was zu tun haben, aber die Abfrage erfolgt eher oberflächlich. Schriftliche Prüfung ist mehr zu empfehlen als eine mündliche (besonders bei Herr Leser). In der Übung lernt man nichts, aber die Vorlesung ist sinnvoll und der Besuch kann einem das lernen am Ende erleichtern. 

Nr.PrüferFach
899 Leser Prof. Algorithmen und Datenstrukturen

Protokoll

= Datum der Prüfung: 26.Sep.2019

= Prüfungsfragen
Es fehlen bei manchen Aufgaben eventuell Teilaufgaben. Hilfsmittel waren nicht erlaubt.

6 Aufgaben à 20 Punkte 

1. Landau

a) Funktionen aufsteigend nach asymptotischem Wachstum ordnen. Ein Beweis ist nicht nötig.

dritte √n^2
√n * ln(3)
√ln * ln(√n)
5 * ln(n^5)

b) Beweisen Sie n(ln)... klein omega  Geschnitten ... klein o (...)

c) Beweisen Sie 
g ∈ O(f) und f ∈ Ω(h), dann f ∈ Ω max(g,h)


2. Hashing

(1)
Werte 22,44,15,51,65 in dieser Reihenfolge in eine Hashtabelle einfügen, mit
a) linearem Sondieren. h(k)=k mod 7. 
b) geordnetem Hashing auf Grundlage von doppeltem Hashing. h'(k)=1+(k mod 3). s(i,k)=(h(k) - j * h'(k)) mod 7    mit 0<=j<7

(2)
Bestimmen Sie ob es sich um geeignete Hashfunktionen handelt. (Mit Overflowhashing bei Kollision). Für eine Hashtabelle von 0 bis n-1 mit n Werten
a) h(k)= k/n abgerundet
b) h(k)= (k * random (nicht deterministisch Zahl von 1 bis n)) mod n
c) h(k)= 1
d) h(k)= k mod n

Geben Sie für die Funktionen, die Sie als geeignet bezeichnet haben an wie gut Sie sind (Gibt es viele Kollisionen oder so etwas war gemeint. wieder mit overflow)


3. Algorithmenanalyse

a)
Gegeben war ein Array A=[7,5,3,4,4]
Im Code wurde ein Array B und ein Array C mit 0 indiziert. Die hatten eine Länge von irgendwas i...z 
Man sollte 
(i) nach der ersten forschleife das Array B angeben.
(ii) nach der zweiten forschleie das Array B angeben
(iii) für das Array B und C nach jedem durchlauf der dritten forschleife die Werte angeben
(vi) Worstcase Laufzeit des Algos abhängig von n und z angeben.

die forschleifen waren nacheinander, die erste und dritte lief von 1 bis n und die zweite von 2 bis z. Es ist nicht viel passiert aber alles sehr nervig notiert um durcheinander zu kommen. sowas wie C[B[A[i]]]=B[A[i]] + 1


4. Heaps

(1)
Gegeben waren drei Zeichnungen für die man in einer Tabelle bestimmen sollte ob es sich um Min/Max heap, Binären Suchbaum oder AVL-Baum handelt. Mehreres war möglich.

(2)
Build-heap Schreibtischtest 

(3)
Was ist die Worstcase Laufzeit um das zweitgrößte Element zu finden (mit Begründung)
a) aufsteigend sortierte einfach verkettete Liste
b) Max-Heap
c) AVL-Baum

(4)
k Arrays die aufsteigend sortiert sind und alle jeweils mindestens ein Element enthalten sollen zu einem einzigen Array zusammengefügt werden, welches aufsteigend sortiert ist. Volle Punktzahl wenn in O(log(k) * n * k).


5.

(1) 
Gegeben war ein nicht ganz korrekter Code, um zu bestimmen ob ein Klammerausdruck wohlgeformt ist (also "(([]))" soll true zurück geben, aber "(()))))))" soll false zurück geben).

a) Finde ein Beispiel für nicht wohlgeformt bei dem wegen des Fehlers nicht false zurück gegeben wird.

b) erkläre den Fehler (Es waren int Variabeln für die jeweiligen Klammertypen angelegt und mit switch case bei offener +1 und bei geschlossener -1 gerechnet. False wurde nur zurück gegeben wenn ein wert <0. Wenn also am Ende zu viele offene Klammern da waren oder wenn die Reihenfolge nicht stimmte, wurde das nicht abgefangen)

c) Schreibe einen korrekten Pseusocode der das Problem löst. Als Hinweis wurde Stack empfohlen

(2)
Angenommen es gibt ein nicht-stabiles Sortierverfahren N, dann überlegen Sie ein stabiles Sortierverfahren S, dass in O(n) auf Grundlage von N sortiert.

(3)
Eine Erklärung dazu was stabil bedeutet. Beweisen oder widerlegen Sie für die Implementierung von Quicksort aus der Vorlesung ob stabil


6. Floyd Warshall

(1) Schreibtischtest

Knoten C gerichtete Kante zu A
A gerichtete Kante zu D und E
D gerichtete Kante zu E
E gerichtete Kante zu B
B gerichtete Kante zu E

Jede Kante war scheinbar 1 Wert.

(2)
Beweis für Radius eines Graphen. Es war erklärt was der Radius ist. für ungewichtete, ungerichtete Graphen

(3)
Beweis, dass es mehr als einen minimales Knoten, also mit kleinstmöglichem Radius, in einem Graphen gebgen kann.

Nr.PrüferFach
904 Leser Prof. Algorithmen und Datenstrukturen

Protokoll

= Datum der Prüfung: 13.11.2019
= Benötigte Lernzeit als Empfehlung: 4 Wochen
= Verwendete Materialien: Bücher, Vorlesungsfolien, Altklausuren, Prüfungsprotokolle
= "Atmosphäre" der Prüfung / Verhalten der Beisitzer: Die Prüfung war sehr angenehm. Ich war etwas nervös, weil es mein Drittversuch in diesem Modul war. Zuerst haben wir uns allgemein über das Studium unterhalten, danach haben wir mit der Prüfung begonnen. Prof Leser hilft einem auf die Sprünge, wenn man gerade nicht weiterkommt.
= Prüfungsfragen:

*QuickSort erklären*
->zwischendurch unterbrochen um nachzufragen
-Was passiert genau in diesem Schritt?
-Funktionen divide und quicksort
-Wieso wählen wir das Pivotelement so?
-WC/BC/AVC?
-Wie wurde der AVC in der Vorlesung bewiesen?

*Weiteres divide & conquer Verfahren?*
MergeSort
-> Fragen ähnlich wie bei QuickSort

*Gibt es Sortierverfahren die nicht durch Vergleiche sortieren?*
Meine Antwort: CountingSort-kurz erklärt
-> ist zwar richtig, aber er wollte auf BucketSort hinaus
BucketSort kurz die Idee erklärt (Laufzeit)

*Suchbäume*
-> Operationen/Laufzeiten/sym. Vorgänger/Nachfolger

*starke Zusammenhangskomponente*
-> Definition

-
= Note (Optional): 2.3

= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...):

Alles in Allem fand ich die Prüfung entspannter als ich mir sie vorgestellt hab. Ich musste oftmals etwas länger überlegen, aber die Stille war nie zu lang. Entweder kam eine neue Frage oder Prof Leser hat versucht mir zu helfen. Er fragt auch mal nach Begriffen, die man selbst erwähnt hat(Beispiel: -QuickSort ist ein allgemeines Sortierverfahren,dh es sortiert nur durch Vergleiche-
-> *Nennen Sie ein Sortierverfahren, welches nicht durch Vergleiche sortiert*). Ich empfehle jedem, der einen Drittversuch hat, diesen mündlich zu machen, weil es weniger riskant scheint.


Nr.PrüferFach
964 Leser Prof. Algorithmen und Datenstrukturen

Protokoll

= Datum der Prüfung : 10.08.2021
Insgesamt 120 Punkte und 150 Minuten Zeit
= Prüfungsfragen:
1.a)Beweisen oder Wiederlegen sie für folgende Funktionspaare die beiden Aussagen 
f in O(g) und f in Omega(g) (3*4 Punkte)

i: (2+n)^n und 2^n
ii: 3n^2+5n+3 und 2n^3+5n
iii: Wurzel(n) und log(n^2)

b) Sei f0 in O(f) und g0 in O(g). Beweisen sie g0+f0 in O(max(f,g)) (4 Punkte)

c) Beweisen sie o(f) geschnitten Omega(f) = Leere Menge (4 Punkte)

2.a) In einem sortierten Array der Länge n werden k nicht aufeinanderfolgende Zahlen durch zufällige andere ersetzt. Geben sie einen Algorithmus an, der dieses Array in O(n+k*log(k)) löst und begründen sie die Laufzeit.

b)Ein Tal-Array ist ein bis zu einem index i abwärts sortiertes und ab i aufwärts sortiertes Array. 
Gegeben ist ein Algorithmus foo
foo(Array C):
i=1
j=n
while(true):
  if(i<n and C[i]>C[i+1])
     i++
  elsif j>1 and C[i]>C[i-1])
     j--
  elseif(i==j)
     return C[i]
  else
     return -1

i) was gibt foo für das Tal-Array A[59,50,35,31,29,34,40,49] aus
ii) was macht der Algorithmus generell
iii) was ist die Komplexität

3. Schreibtischtest Quicksort für [5,13,17,2,3,11,7]
4.a) Hashtabelle Schreibtischtest mit linearer und doppelter Sondierung 
b)sind folgende Funktionen zum Hashen mit overflow einsetzbar?
h(k)= 2k/n abgerundet
h(k)=0
h(k)=k*(nicht deterministische random zahl) mod n
h(k)=k+c mod n
b) sind die die einsetzbar sind gut um Kollisionen zu vermeiden (mit Begründung)?
c)i)Folgende Hashtabelle gegeben: _,_,16,10,19,5,_,_,_,_,_
Geben sie eine Hashfunktion und Einfügereihenfolge an damit die Tabelle rauskommt (Sondierung ist s(k,j)=h(k)-1)
ii)wie wahrscheinlich ist es, dass die nächste Zahl an der Position 1 landet
iii) wie viele Kollisionen treten durchschnittlich auf, wenn man eine Zahl in diese Tabelle einfügt

4. Ein Array ist gegeben und man soll buildHeap darauf ausführen und dabei nach jedem swap den Heap zeichnen (6 Punkte)
delete min auf einem Heap und wiederum nach jedem swap zeichnen (4 Punkte)

5. Entwerfen sie einen Algorithmus, der in O(n) true zurückgibt, wenn der Baum balanciert ist (im sinne eines AVL Baums, also mit höhe rechts-links <=+-1) und ansonsten false. Platzverbrauch egal, der Baum darf jedoch nicht modifiziert werden. (Schwierigkeit war (für mich) dass man bei rekursion nicht die Höhe sondern nur true oder false zurückgeben durfte)

6. Schreibtischtest Prim Algorithmus an einem Graphen ( genauso wie Aufgabe 5 bei der Probeklausur 2019)

7.Es ist ein azyklischer ungerichteter gewichteter Graph gegeben, der ein Wasserverteilungssystem darstellen soll mit einer Quelle q.
  q a b c d e f g h i
q     1       
a         2      
b 1     9   2     
c     9
d   2             3
e     2           3
f                   3
g                 2
h         3 3   2   2
i             3   2
(Graphisch(lol) angegeben, nicht als Tabelle)
a)Geben sie die Adjazenzliste an
b) wie lange braucht das Wasser Bis es alle Knoten erreicht hat
c) geben sie einen Algorithmus an, der b für azyklische Graphen ausrechnet.( Ich glaube in O(n^2)

Nr.PrüferFach
966 Leser Prof. Information Retrieval

Datei (Zugriff nur aus dem HU-Netz)

IR_Prüfungsprotokoll_SS21.pdf

Nr.PrüferFach
1022 Leser Prof. DBS2 - Implementation von Datenbanken

Protokoll

= Datum der Prüfung

26.02.2024

= Benötigte Lernzeit als Empfehlung

Wer in der Vorlesung wirklich anwesend war, sollte mit einer Woche gut hinkommen. Ist aber auch immer eine Frage des eigenen Anspruchs und des Lerntyps.

= Verwendete Materialien (Bücher, Skripte etc...)

Vorlesungsfolien mit eigenen Mitschriften sowie die Folien aus den Tutorien

= "Atmosphäre" der Prüfung / Verhalten der Beisitzer

sehr ruhig und es konnten jederzeit Fragen gestellt werden

= Prüfungsfragen

2h Bearbeitungszeit, 90 Punkte

Aufgabe 1: Records und Blöcke

- Was ist die kleinste lesbare Einheit auf einer Festplatte?
- Wie hoch ist die maximale Anzahl an parallel ausführbaren Operationen bei einem RAID 0+1 mit 4 Platten?
- Welche 2 Informationen muss die Record ID bei einem directory enthalten
- Berechne die Anzahl an benötigter Blöcke für unspanned records zu einem gegebenen System
- Berechne die Anzahl an benötigter Blöcke für spanned records zu diesem System

Aufgabe 2: B+ Baum

- Interne Knoten mit Werten füllen, die durch die Blätter gegeben sind
- Löschen eines Werts und updaten des Baums

Aufgabe 3: Query optimization

- Es war eine Query gegeben, die auf die minimale Anzahl an Operationen reduziert werden sollte
- Führe alle Join orders von drei Relationen an
- Welche der drei Cache replacement policies reduziert die Anzahl der IO Zugriffe am meisten und warum? (LRU, LIFO, FIFO)

Aufgabe 4: Kardinalitäten (7+7 Punkte)

Es waren zwei Queries gegeben, für die möglichst genau die Größe des Ergebnisses berechnet werden sollte

- Die erste Query hatte ein equi-depth Histogramm für ein Attribut, welches in einer Range zwischen 13 und 21 liegen sollte sowie eine Selektion für ein zweites Attribut mit einem konstanten Wert
- Die zweite Query beinhaltete 3 Relationen, wobei für zwei eine Join Bedingung gegeben war und für die dritte Relation wurde ein exakter Wert abgefragt


Aufgabe 5: Synchronisierung

Es waren drei Transaktionen gegeben

- Dann war eine Abfolge der Transaktionen gegeben und es sollte begründet werden, ob der Schedule seriell ist und ob er serialisierbar ist
- Für eine zweite Abfolge der Operationen sollte begründet werden, ob der Schedule recoverable ist
- Zeige einen conflict-serializable Schedule für die oben aufgeführten 3 Transaktionen an

Aufgabe 6: Multiple Choice mit Minuspunkten ABER Aufgabe bringt mindestens 0 Punkte, maximal möglich waren 10 Punkte

- Wofür steht SQL?
- Frage zur 2. Normalform
- Welche ACID Eigenschaften werden durch den Recovery Manager adressiert?
- SSD ist schneller bei Random und Sequential Access [true/false]
- Welche Joins wurden in der Vorlesung behandelt?
- Tabelle beim linear hashing wächst exponentiell [true/false]
- Multi-dimensionale Indexstrukturen eignen sich schlechter als ein composite Index für einen bestimmten Fall [true/false]
- Was kann ein Schedule sein? -> sowas wie seriell etc.
- Welche Operationen kann eine Transaktion ausführen?

[eine Frage ist mir nicht mehr eingefallen]


Aufgabe 7: kdb Baum (4+5 Punkte)

- Einfügen von 3 Punkten und Baum neu zeichnen (Split der Dimensionen über Round Robin)
- Algorithmus für optimalen kdb Baum skizzieren

Aufgabe 8: Recovery

Gegeben war eine Abfolge von Transaktionsoperationen

- Welche Operationen und in welcher Reihenfolge würde der REDO Manager ausführen und warum?
- Welche Operationen und in welcher Reihenfolge würde der UNDO Manager ausführen und warum?

⇒ Ich habe bestimmt ein oder zwei Teilfragen vergessen oder nicht ganz korrekt wiedergegeben, dennoch sollte die Prüfung fast vollständig sein

= Note (Optional)

Wurde noch nicht bewertet

= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)

Prüfung war alles in allem okay. Die Vorbereitung war etwas schwierig, da man nicht so genau wusste, was einen bei der schriftlichen Prüfung erwartet


Nr.PrüferFach
1028 Leser Prof. DBS2 - Implementation von Datenbanken

Protokoll

= Datum der Prüfung

08.04.2024

= Benötigte Lernzeit als Empfehlung
Eine Woche, wenn man in der Vorlesung und den Übungen aufgepasst hat

= Verwendete Materialien (Bücher, Skripte etc...)

Vorlesungsfolien 

= "Atmosphäre" der Prüfung / Verhalten der Beisitzer

Entspannte Atmosphäre, es konnten jederzeit Fragen gestellt werden, man durfte keine Hilfsmittel verwenden

= Prüfungsfragen

2h Bearbeitungszeit, 90 Punkte
An alle Fragen kann ich mich nicht mehr erinnern

Aufgabe 1: Records und Blöcke

Es waren die große von Sektoren, wieviele Sektoren pro Track, Tracks pro Oberfläche, Anzahl der Platten gegeben

- Berechne die Kapazität der Festplatte in Byte
- Wie lange braucht die Festplatte zum lesen, wenn der Kopf schon an der richtigen Stelle ist?
- Wieviel Speicher braucht man um bei Raid 0+1 wenn man 1 GB speichern will
- Berechne die Anzahl an benötigter Blöcke für unspanned records zu einem gegebenen System


Aufgabe 2: B+ Baum
Ein Baum war gegeben mit Höhe 3 und doppelten Werten

- In welcher Reihenfolge wurden die Werte zu dem Baum hinzugefügt, damit dieser Baum entsteht? 
- Wie sieht der Baum aus, wenn man einen Wert in den Blättern löscht

Aufgabe 3: 
- Zwei Relationen waren gegeben
- in welcher Reihenfolge würde ein Block Nested loop die Relationen öffnen
- Es war der Anfang eines C Codes gegeben und man musste Lücken füllen, zum programmieren so eines Block Nested Loop
- IO Zugriffe bei Tabelle, Hash und Baum vergleichen und berechnen und begründen für was man sich entscheiden würde

Aufgabe 4: 

- Es waren Werte gegeben man sollte ein Equi- Depth Histogramm erstellen
- Man sollte die Kosten errechnen wenn eine Relation bleichverteilt ist und von einer anderen ein Equi-Depth Histogramm bekannt ist


Aufgabe 5: Multi-Dimensional Index
Grid File: Es war ein Grid gegeben mit A, B, C und D
C sollte gesplitted werden

- Nach welchen Strategien kann man vorgehen
- In wiefern spielt Konvexität eine Rolle

Aufgabe 6: 10 Fragen 10 Punkte

- Wofür steht SQL?
- Welche Joins wurden in der Vorlesung behandelt?
- Warum wird extensive hashing normalerweise nicht verwendet
- irgendeine Frage zu linear Hashing gab es glaube auch
- Warum machen wir Query Optimisation
- Wofür steht LRU?

Aufgabe 7: Recovery

Gegeben war eine Abfolge von Transaktionsoperationen

- Welche Operationen und in welcher Reihenfolge würde der REDO Manager ausführen und warum?
- Was wäre anders wenn man einen Checkpoint einfügen würde

Aufgabe 8: Join

Es war eine Query gegeben über Vorlesungen, Studierenden, Professor:innen und Hörende, dazu waren noch weitere Infos gegeben, Studierende belegen jeweils 4 Vorlesungen, es gibt 1000 Studierende, es gibt 80 Professor:innen, jeder davon liest 4 Vorlesungen, 4000 sind in der Hörenden Relation

Man sollte Tabellen ausfüllen, wo jeweils ein Join eingetragen ist, die Kardinalität, die Kosten und der optimale Plan (wie in Folgesatz zur Query Optimization Folie 68)

Als Beispiel waren die Atomaren Relationen gegeben, man sollte dann 8? Spalten für die Paarweisen Joins ausfüllen
4? für die mit Drei und 2 für die mit 4 Relationen

= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)

Prüfung war alles in allem okay