piwik-script

Intern
    Data Science Chair

    Data Mining

    Die Vorlesung gibt einen Überblick über die Wissensgewinnung aus (strukturierten) Daten. Dazu gehören unter anderem:

    • Vorverabeitungstechniken
    • OLAP-Analyse & Data-Warehousing
    • Clustering (k-means, k-medoids, DBSCAN, OPTICS)
    • Klassifikation (k-Nearest-Neighbor, Bayes, Entscheidungsbaum, Support Vector Machine; Bagging, Boosting, z. B. Random Forest, AdaBoost)
    • Regressionsanalyse (Linear Regression, Logistic Regression)
    • Assoziationsregellernen (Aprioiri, FP-Growth)
    • Einführung in Deep Learning

    Organisatorisches

    • Vorlesung:
      Di, 10:15 - 11:45 (Achtung: neue Veranstaltungszeit im Vergleich zu den vorherigen Semestern)
      Zuse
      Erster Veranstaltungstag: 30.04.2019
    • Übung:
      Do, 14:15 - 15:45
      Informatik - Übungsraum II
      Do, 16:15 - 17:45
      Informatik - Seminarraum 3
      Fr 14:15 - 15:45
      Informatik - SE I
      Erster Veranstaltungstag: 09.05.2019
    • WueCampus-Kurs: Link zum Kurs
    • Anmeldung: Eine Anmeldung vor der ersten Vorlesung ist nicht nötig! Die genauen Einschreibemodalitäten werden in der ersten Vorlesungssitzung bekannt gegeben.
    • Prüfung: Hinweis: Es werden unterschiedliche Prüfungen für Bachelor- und Masterstudierende angeboten.

    Literatur

    • Knowledge Discovery in Databases: Techniken und Anwendungen Ester, Martin; Sander, Jörg (2000). (1st ed.) Springer Berlin Heidelberg.
       
    • CRISP-DM 1.0 Step-by-step data mining guide Chapman, Pete; Clinton, Julian; Kerber, Randy; Khabaza, Thomas; Reinartz, Thomas; Shearer, Colin; Wirth, Rudiger (2000).
       
    • Advances in Knowledge Discovery and Data Mining. Fayyad, Usama M.; Piatetsky-Shapiro, Gregory; Smyth, Padhraic; Uthurusamy, Ramasamy (1996).
       

    Weitere Literatur zur Vorlesung

    • Sequential minimal optimization: A fast algorithm for training support vector machines. Platt, J. (1998).
       
    • OPTICS: Ordering Points To Identify the Clustering Structure. Ankerst, Mihael; Breunig, Markus M.; peter Kriegel, Hans; Sander, Jörg (1999). 49--60.
       
    • On End-to-End Program Generation from User Intention by Deep Neural Networks. Mou, Lili; Men, Rui; Li, Ge; Zhang, Lu; Jin, Zhi in CoRR (2015). abs/1510.07211
       
    • Mining Frequent Patterns without Candidate Generation. Han, Jiawei; Pei, Jian; Yin, Yiwen W. Chen, Naughton, J. F., Bernstein, P. A. (reds.) (2000). 1-12.
       
    • Maximum likelihood from incomplete data via the EM algorithm. Dempster, A. P.; Laird, N. M.; Rubin, D. B. in Journal of the Royal Statistical Society: Series B (1977). 39 1-38.
       
    • Experiments with a New Boosting Algorithm. Freund, Yoav; Schapire, Robert E. (1996). 148-156.
       
    • Experimental evidence of massive-scale emotional contagion through social networks. Kramer, Adam D. I.; Guillory, Jamie E.; Hancock, Jeffrey T. in Proceedings of the National Academy of Sciences (2014). 111(24) 8788-8790.
       
    • Data Science and Prediction. Dhar, Vasant in Commun. ACM (2013). 56(12) 64--73.
       
    • Data Science and its Relationship to Big Data and Data-Driven Decision Making. Provost, Foster; Fawcett, Tom in Big Data (2013). 1(1) 51--59.
       
    • Clustering by means of medoids. Kaufman, Leonard; Rousseeuw, Peter J. (I. : D. Y; editor,, reds.) (1987). 405–416.
       
    • Bagging, Boosting, and C4.5. Quinlan, J. Ross W. J. Clancey, Weld, D. S. (reds.) (1996). 725-730.
       
    • Automatic Subspace Clustering of High Dimensional Data for Data Mining Applications. Agrawal, Rakesh; Gehrke, Johannes; Gunopulos, Dimitrios; Raghavan, Prabhakar (1998). 94--105.
       
    • A Density-Based Algorithm for Discovering Clusters in Large Spatial Databases with Noise. Ester, Martin; Kriegel, Hans-Peter; Sander, Jörg; Xu, Xiaowei (1996). 226-231.