Fachschaft Informatik

Prüfungsprotokolle


Prüfungsprotokolle lesen



Protokolle (10 gefunden)

Nr.PrüferFach
272 Leser Prof. Data Warehousing und Data Mining

Protokoll

= Datum der Prüfung

August 2007


= Benötigte Lernzeit als Empfehlung

habe es mit 10 Tagen versucht, war aber zu wenig ->
mindestens 14 Tage


= Verwendete Materialien (Bücher, Skripte etc...)

Folien, Google


= "Atmosphäre" der Prüfung / Verhalten der Beisitzer

Alles recht entspannt, Beisitzer hat nichts gesagt :)
Ersten 5 bis 10 min reden übers eigene Studium etc


= Prüfungsfragen

- Aufbau eines DWH
- Welche Techniken werden bei ETL Prozess und beim erstellen
der Marts wo angewandt? (BULK von Quelle zu staging area,
SQL und Satzbasiert in Cube, MVs zu marts)
- Differential Snapshot Problem. Was ist das? Wie haben wir
es gelöst) (Verschiedene Algorithmen und Funktion)
- Erkläre DS mit Hashing oder mit Sortierung inklusive
Komplexität
- Indexierung: Was ist ein oversized B* Index?
- Was ist ein Bitmap Index? Warum brauchen wir ihn?
(Composite B* ist ordnungssensitiv)
- Komprimierung von Bitmap Indexen (RLE 1 und als
horizontale Komprimierung, Zahlenbasenänderung als vertikale)
- Kardinalität eines Attributes ist 34, wie viele Bitmap
Arrays braucht man bei Zahlenbasis <4,4,4> ? Wie viele
Zahlen kann man damit kodieren? 4*4*4 = 64
- Welche Clusteringmethoden haben wir besprochen?
(hierarchisches Clustern, k-Means und dichte-basiertes Clustern)
- Erklären sie dichte-basiertes Clusterm
- Aussage: Wenn Nachbarn suchen in DBSCAN linear wäre, dann
Algorithmus linear, warum?


= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)

Prüfung war in Ordnung, Note auch angemessen, hatte mir
besseres gewünscht, aber das Leben ist nunmal kein Ponyhof, ne?

Nr.PrüferFach
291 Leser Prof. Data Warehousing und Data Mining

Protokoll

= Datum der Prüfung
2.10.07

= Benötigte Lernzeit als Empfehlung
1,5 Wochen mit DBI- und Maschinellem Lernen-Vorwissen

= Verwendete Materialien (Bücher, Skripte etc...)
Skript
= "Atmosphäre" der Prüfung / Verhalten der Beisitzer
- zuerst kurzes Plaudern übers Studium
- kein Streß
- man kann mehrfach nachfragen, wenn man mit einer Frage
nichts anfangen kann
- man kriegt eine weitere Chance, wenn man was falsch macht

= Prüfungsfragen
- OLTP<>OLAP
- Starschema für Wetterstationen malen, Fakten & Dimensionen
herausfinden (FDs beachten!)
- Gruppierungsanfragen stellen (GROUP BY und CUBE)
- wie funktioniert Gruppierung (Hash<>Sortieren)
- wie berechnet man Aggregatfunktionen drauf
- Clustering: welche Arten gibts
- Beschreibung Algorithmen für hierarchisches C., k-Means,
k-Medoid
- Laufzeit- und Speicherplatzabschätzungen

= Note (Optional)
1,3
= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)
faire Prüfung und faire Benotung

Nr.PrüferFach
552 Leser Prof. Data Warehousing und Data Mining

Protokoll

= Datum der Prüfung
Februar 2012
= Benötigte Lernzeit als Empfehlung
14 Tage sollten eingeplant werden, sehr viel Stoff
= Verwendete Materialien (Bücher, Skripte etc...)
Skript, Google, Wikipedia
= \"Atmosphäre\" der Prüfung / Verhalten der Beisitzer
alles sehr entspannt, kurzes Gespräch über das Studium und Schwerpunkte, Beisitzer hat nichts gesagt, dann ging es mit dem Lieblingsthema los
= Prüfungsfragen
- Elemente vom MDDM nennen
- Wie spielen die Elemente zusammen?
- müssen Klassifikationsstufen innerhalb eines Schemas immer funktional voneinander abhängen? (Nein -> Woche + Jahr)
- Erstellen Sie ein Data Warehouse für ein Telekommunikationsanbieter: Dauer von Anrufen tracken, eigener Kunde oder Kunde vom Wettbewerber?, Ort + Zeit als zusätzliche Dimension. (es gibt keine optimale Lösung)
- Group-by Anfrage auf sein eigenes Schema stellen
- Was macht Cube und wie wird group-by implementiert?
- Erklären Sie group-by mit Sortierung
- Was sind Probleme bei Materialized Views? (Selektion, Aktualität, ...)
- Wie kann man das Problem der Selektion lösen? (Pipesort erklären und Aggregationsgitter aufmalen)
= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)
angenehme Prüfung, sehr faire Bewertung. Prof. Leser gibt ausreichend Zeit zum Nachdenken und unterstützt auch wenn nicht sofort die Antwort einfällt. Hauptsächlich sollte auf Verständnis gelernt werden und Zusammenhänge sollten verstanden werden. Formale Definitionen interessieren nicht.

Nr.PrüferFach
554 Leser Prof. Data Warehousing und Data Mining

Protokoll

= Datum der Prüfung
29.02.2012

= Benötigte Lernzeit als Empfehlung
14 Tage

= Verwendete Materialien (Bücher, Skripte etc...)
Script, Mitschriften

= \"Atmosphäre\" der Prüfung / Verhalten der Beisitzer
sehr entspannte Atmosphäre, kurzer Smalltalk 

= Prüfungsfragen
----Indexierung----
- B*-Bäume
Er wollte relativ genau wissen was passiert wenn man einen Knoten im B* Baum löscht und was dann passieren kann (Mergen von Knoten) und was man dann machen muss (Pointer neu setzen etc.).
- Bitmap Index
Danach waren Bitmap Indexe dran. Ich sollte kurz den Aufbau erklären und einen Index skizzieren. Danach wollte Prof. Leser wissen, wie man einen Bitmap Index bei zusammengesetzten Bedingungen benutzt. Er hatte zwei Bedingungen X=1 AND Y=2 gegeben und wollte wissen wie die beiden Indexe benutzt werden können. Gleiches für X=1 OR Y=2 und X=1 AND Y!=2. Ich wusste nicht genau worauf er hinaus wollte aber am Ende wollte er wirklich nur die logische Verknüpfung also X AND NOT Y etc.
Danach folgte ein Übergang zur Komprimierung (Was macht man wenn der Index nicht in den Hauptspeicher passt?). Ich sollte kurz RLE1 und 2 erklären. Wir sind dann relativ detailliert auf die Veränderung der Zahlenbasis eingegangen. Er fragte mich wie man 25 verschiedene Werte anders darstellen kann. Ich sollte dann für meine Zahlenbasis <3,4,3> einen Wert darstellen. Danach kam die Frage, ob man 25 Werte auch mit 8 Bit darstellen könnte.


----Klassifizierung----
Was macht man bei Klassifizierung? Kurz alle drei Verfahren (Bayes, Entscheidungsbaum, Nearest Neighboor) erklären. Vorteile und Nachteile aller Verfahren nennen. Naive Bayes wollte er relativ genau erklärt haben (Zusammenspiel der Wahrscheinlichkeiten). Beim Entscheidungsbaum wollte er wissen wie man eine Entscheidung nennt (=Split).

----Partitionierung----
Welche Arten gibt es? Was sind die Vorteile? Wofür verwendet man die einzelnen Formen. Er fragt hier schon relativ genau nach warum man z.B. bei häufigen Wertänderungen auf einigen Attributen vertikal Partitionieren kann. Auch bei den Vorteilen bei der Horizontalen Partitionierung wollte er mehr wissen als Parallelisierung. 

= Note (Optional)
1,3

= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)
Ich hatte einige genaue Begriffe wie z.B. Split oder den Namen der Wahrscheinlichkeit bei Bayes (Apriori-Wahrscheinlichkeit) nicht parat oder wusste nicht worauf er hinaus wollte und war beim B*-Baum etwas begriffsstutzig. Insgesamt legt er weniger Wert auf Formalien sondern eher auf gutes Verständnis. Um dies zu Überprüfen hakt er gerne auch etwas tiefer nach, hilft aber auch wenn man nicht genau weiß worauf er hinaus will. Am Ende war die Note besser als mein Gefühl es erwartet hätte.

Nr.PrüferFach
555 Leser Prof. Data Warehousing und Data Mining

Protokoll

= Datum der Prüfung
29.02.2012
= Benötigte Lernzeit als Empfehlung
2 Wochen mit DBS1 Vorwissen
= Verwendete Materialien (Bücher, Skripte etc...)
Skript, Wikipedia, Literatur (Datenbanktechnologie für Data-Warehouse-Systeme. Konzepte und Methoden von Wolfgang Lehner)

= \"Atmosphäre\" der Prüfung / Verhalten der Beisitzer

Angenehm und locker. Beisitzer notierte nur, Prof. Leser führte am Anfang 5 Minuten Smalltalk über Studiumsverlauf
= Prüfungsfragen

Haben Sie ein Lieblingsthema? -> Indexierung

- B*-Baum erklären
- Komplexität von B*-Bäumen
- Einfügeoperationen / Balancierung
- BULK-LOAD von 1 Million Tupeln in einen nicht leeren B*-Baum
- Bitmap-Index erklären
- Unterschiede zum B*-Baum am Beispiel mit x-Tupeln und n-Attributen
- Vorteile/Nachteile? (Beispiel mit Verkettung von Bedingungen an A=5 und B=7, dann, A=5 B!=7.)
- Kompression erklären: RLE1 / RLE2
- Vertikale Komprimierung erklären am Beispiel: Welche Komprimierung für Wertebereich von 25? Wie viele Bitarrays? Wähle <3,3,3> - geht das auch mit <5,5> ? Was muss mehr Bitarrays laden? (<3,3,3> = 3 ), was braucht mehr Speicher? (<5,5> = 10 Bit), geht das noch kleiner? -> Binär
- ETL: Was ist das?, Prozess erklären
- Macht es Sinn Staging Area auf anderem System als Basisdaten zu haben ? -> Ja OLTP vs. OLAP optimierte Systeme. Staging Area eher OLTP.  
- Differential Snapshot Problem: Was ist das ? -> Definition aus Folien
- Lösung? -> 5 Algorithmen aufgezählt
- Erklären sie einen davon ausführlich + Kosten -> DS_hash
- Duplikaterkennung: Wo liegt das Problem?
- Lösung? Kosten? (Simpel, also jedes Tupel mit jedem Tupel vergleichen / mit Window)
- Wenn Sie ihr Window verkleinern, wie verändert sich Precision, Recall und Kosten?

= Note (Optional)
1,3
= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)

Absolut faire Prüfung und angemessene Benotung.

Nr.PrüferFach
556 Leser Prof. Data Warehousing und Data Mining

Protokoll

= Datum der Prüfung
  Februar 2012

= Benötigte Lernzeit als Empfehlung
  1 Woche

= Verwendete Materialien (Bücher, Skripte etc...)
  Skript

= \"Atmosphäre\" der Prüfung
  gut, relativ entspannt

= Prüfungsfragen

1. Clustering (mein Wahlthema)
 - Arten von Clusteralgorithmen
 -- hierarchisches Clustern erklären
 -- k-Mean und k-Medoid erklären und Laufzeitkomplexität bestimmen
    (Startwerte, Berechnung der Mittelwerte)

2. Star-Join
 - Erklären was das ist
 - Besonderheit der Bevorzugung des kartesischen Produktes
 - Bitmap-Join-Index erklären
 - Bloom-Filter erklären

3. OLAP vs OLTP
 - Unterschiede erklären

= Note (Optional) 
  1,3

= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)
  Meine Ausdrucksweise war nicht immer klar und deutlich und die Antworten kamen nicht immer so wie er es gern hätte.
  Mit Nachfragen und Diskussion kann man sich aber trotzdem gut verständigen.
  Gute Benotung

Nr.PrüferFach
567 Leser Prof. Data Warehousing und Data Mining

Protokoll

= Datum der Prüfung
April 2012

= Benötigte Lernzeit als Empfehlung
Man sollte schon wenigstens eine Woche einplanen, insbesondere wenn die Übungsaufgaben nicht allzu erfolgreich waren.

= Verwendete Materialien (Bücher, Skripte etc...)
Vorlesungsfolien, Repetitoriumsfolien

= \"Atmosphäre\" der Prüfung / Verhalten der Beisitzer
Freundliche aber fordernde Atmosphäre, bei Nicht-Wissen leiden alle Anwesenden darunter ;) Beisitzer hält sich im Hintergrund und notiert lediglich den Prüfungsverlauf.

= Prüfungsfragen
- Multidimensionales Datenmodell
- MOLAP: Typen (value per unit, flow, stock)
- ROLAP: Star-, Snow-Schema, Größenunterschiede?
- Star Join: Was ist das Problem? (Reihenfolge der Einzeljoins)
- Bitmap-Indizes: Ergebnis via AND Wie nutzen für den Join?, Wie komprimieren? (horizontal: RLE1, RLE2, vertikal)
- CUBE-Operator: Was ist das? Was ist das Problem? (Gruppierungen wiederverwenden; Wie? Smallest Parent etc)
- Iceberg Cubes, HAVING, Optimierung (Obergruppen ausschließen wenn Untergruppe schon nicht erfüllt)

= Note
2,0

= Fazit
Sehr faire Prüfung, Prof. Leser versucht mit allen Mitteln, vorhandenes Wissen zu finden. Dafür werden auch ggf. unangenehme Fragen gestellt.

Nr.PrüferFach
569 Leser Prof. Data Warehousing und Data Mining

Protokoll

= Datum der Prüfung
März 2012

= Benötigte Lernzeit als Empfehlung
wenige Tage intensivlernen bei gutem Vorwissen

= Verwendete Materialien (Bücher, Skripte etc...)
Skript

= \"Atmosphäre\" der Prüfung / Verhalten der Beisitzer
sehr entspannte Atmosphäre und Auflockerung der Aufregung durch Gespräch über s Studium zu Beginn

= Prüfungsfragen
Einstieg Wunschthema Data Mining
 - Welche Verfahren
 - Detailabstieg in Klassifikation
 - Naive Bayes sehr detailliert mit eigenen Denkansätzen

Sprung zu logischer Optimierung
 - Partionierung Horizontal / Vertikal

ETL Prozess
 - Was ist das
 - Monolog bis zum Prüfungsende

= Note (Optional)
1.3

= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)
Sehr solide Prüfung mit Ansätzen zum weiterdenken, aber auch der ein oder anderen Kante zum aufreiben.

Nr.PrüferFach
830 Leser Prof. Data Warehousing und Data Mining

Protokoll

23.02.2018 (schriftlich)= Datum der Prüfung
2-3 Wochen = Benötigte Lernzeit als Empfehlung
Wolfgang Lehner: Datenbanktechnologie für Data Warehouse Systeme, Skript = Verwendete Materialien (Bücher, Skripte etc...)
Schriftlich, normal halt. Es gab Schmierpapier, kein Taschenrechner etc., 120 Minuten Schreibzeit = "Atmosphäre" der Prüfung / Verhalten der Beisitzer

Prüfungsfragen:
Aufgabe 1 (9 Punkte):
OLAP versus OLTP Tabelle. Einige Zeilen wurden abgefragt, man musste in Stichpunkten die Inhalte füllen, wie in der Folie.
Gefragt war: Typische Operationen, Typische Anfragen, Daten pro Operation, Datenart, Modellierung

Aufgabe 2 (2+2+2+1+1+1 = 9 Punkte):
a: Geben sie eine exakte Definition an von: Algebraische Funktion, Distributive Funktion, Holistische Funktion.
b: Für jedes zwei Beispiele nennen
(Achtung, hier hat Leser die Reihenfolge vertauscht, wie sie in den Folien war)

Aufgabe 3 (5+5 = 10 Punkte):
Man musste zwei OLAP: SQL Analytical Functions-Anfragen schreiben.
a: Anfrage mit RANK() OVER(ORDER BY ...) FROM SELECT (...)
Also ein Sub-Select. Es gab 2 Punkte für das Sub-Select, 1 Punkt für ORDER BY und 1 Punkt für RANK().

b: SELECT tag, monat, jahr, SUM(...), Product_ID FROM ... GROUP BY ROLLUP(jahr, monat, tag), Product_ID
Es war wichtig zu beachten Product_ID in den GROUP BY mit anzugeben.

Evtl. abweichende Anfrage, kleine Unsicherheit ;)


Aufgabe 4 (4*1,5+9 = 15 Punkte):
Query Containment.
a: Definition von Query Containment (die 4 Punkte aus dem Skript wiedergeben)
b: Containment Mapping nach Algorithmus durchführen und sagen ob gilt Q ist enthalten in V.
Man musste nach Suchbaum arbeiten, also nicht Schritte überspringen!

Punkt Depth-First Algorithmus aus dem Skript zu MV_Optimierung, so wie im Beispiel auf Folie 34.

Aufgabe 5 (9 + 4 + 2 = 15 Punkte):
a: Sorted Neighborhood (Merge-Purge) - Algorithmus in Pseudocode aufschreiben.
Wichtig war es wirklich Pseudocode zu verwenden. Wurde in der Vorlesung nur an die Tafel geschrieben.
Diese Aufgabe wurde besonders streng bewertet.

b: Laufzeiten angeben
Also für Sortieren und für Vergleiche.

c: Worauf muss man achten beim Algorithmus?
Genauigkeit ist schlecht. Entweder Window-Size größer machen oder Multipass-Verfahren.

b und c wurden aber normal bis nett bewertet.

Aufgabe 6 (5+5 = 10 Punkte):
Gegeben eine SQL Anfrage mit GROUP BY. Man musste erklären, wie man den GROUP BY-Operator implementieren kann bei der Anfrage
und wie viele Durchgänge durch die Tupel gemacht werden müssen.

a: Wenn die Tupel nicht sortiert vorliegen.
Hash-Partitionierung

b: Wenn die Tupel sortiert vorliegen.
Implementierung durch Sortierung
Ein Punkt für Pipelining.


Aufgabe 7 (2+4+4 = 10 Punkte):
Bayes:
Gegeben Tabelle mit Geschelcht, Gewicht und Größe zur Person.
a: Man bekam auch eine leere Tabelle. In diese sollte man das Gewicht und die Größe in drei Intervalle einteilen.
Das Gewicht nach Equi-Width-Binning, die Größe nach Equi-Depth-Binning.

b: Notwendige Wahrscheinlichkeiten berechnen (A-Priori - Wahrscheinlichkeiten). Wahrscheinlichkeiten und Bedingte Wahrscheinlichkeiten.
Einfach Brüche angeben, konnte man gut durchzählen.

c: Zwei Personen mit Attributen gegeben. Diese klassifizieren. Dafür einfach Rechenweg (welche Wahrscheinlichkeiten man nimmt) schreiben
und dann die Werte dafür angeben, man musste nicht ausrechnen.

Aufgabe 8 (4+8 = 12 Punkte):
Man bekam eine Tabelle mit Einkäufen. Jede Zelle enthielt einen Einkauf (z.B. Milch, Sahne, Marmelade).

a: Man musste Confidence und Support für zwei Fälle angeben. (Auch einfach der Bruch).

b: A-Priori-Algorithmus anwenden. Wichtig war es kenntlich zu machen, aus welchen Teilmengen man in jedem Schritt die Einkäufe wählt.

Durchschnitt lag bei 3,06 = Note (Optional)
= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)
Klausur enthielt 90 Punkte. Mit 72 gab es bereits eine 1,0
den Durchschnitt hatte man bei 48 Punkten. Beste Note: 1,7
Schwierigkeit der Aufgabe 5a und 6 wurden bei der Notenskala berücksichtigt.
Teils doch streng bewertet. Zeit war angemessen verfügbar.
Manche Aufgaben waren schwierig zu verstehen. Empfehlung: In der Klausur nachfragen, wie das gemeint ist.

yo K.E.T.A.

Nr.PrüferFach
951 Schäfer, Patrick Dr. Data Warehousing und Data Mining

Protokoll

= Datum der Prüfung
2.3.21
= Benötigte Lernzeit als Empfehlung
2 Wochen
= Verwendete Materialien (Bücher, Skripte etc...)
Nur sein Skript
= "Atmosphäre" der Prüfung / Verhalten der Beisitzer
Es war eine Take-Home Klausur, welche wir per Moodle dann eingereicht haben.
Wahrscheinlich wird diese die Probeklausur vom nächsten Jahr.

= Prüfungsfragen
Aufgabe 1:
    MDDM - ROLAP
    Welche logische Beziehung besteht in Starschema zwischen:
        a) Fakten und Dimension
        b) Dimensionen
    Wie moddeliert man eine N:M Beziehung.
    Eine Rechenaufgabe zu Datenmodellen mit Fakten, Dimensionen und Attributen.

Aufgabe 2:
    Physische Optimierung
    Gegeben war eine Tabelle mit einer SQL Anfrage:
        SELECT shop, prod, tag, avg(preis)
        FROM tabelle
        GROUP BY ROLLUP(shop, prod, tag)
    Wie kann diese Anfrage möglichst schnell beantwortet werden wenn:
        a) Unsortierte Tabelle
        b) Sortiert nach Rollup Attributen

Aufgabe 3:
    SQL - OLAP
    Gegeben war eine Tabelle mit 3 Spalten (Produkt, Farbe, Anzahl). Wir sollten 3 SQL Statements schreiben die angegebene Ergebnisse erzeugen. 
    a) Stuhl | NULL | 176
       Tisch | NULL | 1234
       NULL  | Grün | 54
       NULL  | Gelb | 436
       NULL  | NULL | 2354
    
    b) Stuhl | Grün | 34
       Stuhl | Gelb | 54
       Stuhl | NULL | 88
       Tisch | Grün | 425
       Tisch | NULL | 425
       NULL  | NULL | 513

    c) Eine neue Tabelle mit (ID, Gehalt) und eine geforderte Tabelle mit dem Header:
       ID | Gehalt | Rang | Rang 2 | Gesamt | Gesamt 2

       Rang (normale und dense), Gesamt: kommulierte Summe (je nach Rang), Summe der Gehälter selben Rangs.

Aufgabe 4: Aggregation und CUBE
    a-d) Gegeben waren solgende Aggrgationen: Mathematisches Produkt, Mittelwert, Modus
         Frage: Angeben von der Anzahl der Zwischenergebnissen, ob es 
         Holistisch/Distributiv/Algebraisch ist & Inkrementelle Berechnung.

    d) Gegeben: Würfel mit 3 Dimensionen (Zellenanzahl von 1 Mio, 100, 1000)
       1. Zeichnen des Würfels mit Aggregationsgitter
       2. Eine Zelle speichert ein Measure mit 4 Bytes. Was ist die Gesamtzahl an Bytes des CUBES?
       3. Berechnen der minimalen Menge an Hauptspeicher. (2-D Würfel wird mit Multi Way Array Aggregation berechnet)

Aufgabe 5: Apriori Algorithmus
Wie die Aufgabe aus der Vorlesung nur mit anderen Zahlen.
    1. Support und Konfidenz zu gegebenen Assoziationsregeln angeben
    2. Apriori Algorithmus durchführen

Aufgabe 6: Algorithmisches Clustering

Wir hatten eine Grafik mit einem Gitter und Punkte drin.
    1. Berechnen der Manhattan Distanz
    2. Dendrogramm angeben
    3. Es wurden Cluster angegeben und wir sollten sagen, ob diese mittels Aglomerativen Clustering mit Single Linkage entstanden sind.
       
= Note (Optional)
1.3
= Fazit (Gute/schlechte Prüfung , angemessene Benotung etc...)
Sehr ungewohnt diese Art von Klausur. Man konnte auch die ganze Zeit parallel dazu in Zoom Fragen stellen bei einer unklaren Aufgabenstellung. 
Die Benotung war sehr großzügig und der Schnitt lag auch bei ca. 2,3. 
Da es eine Take Home Klausur war, wurde der Fokus mehr auf Rechenaufgaben gesetzt und nicht auf Wissenabfragen.