piwik-script

Intern
    DMIR Research Group

    Data Mining

    Die Vorlesung gibt einen Überblick über die Wissensgewinnung aus (strukturierten) Daten. Dazu gehören unter anderem:

    • Vorverabeitungstechniken
    • OLAP-Analyse & Data-Warehousing
    • Clustering (k-means, k-medoids, DBSCAN, OPTICS)
    • Klassifikation (k-Nearest-Neighbor, Bayes, Entscheidungsbaum, Support Vector Machine; Bagging, Boosting, z. B. Random Forest, AdaBoost)
    • Assoziationsregellernen (Aprioiri, FP-Growth)
    • Subgruppenentdeckung

    Organisatorisches

    • Vorlesung:
      Di, 12:15 - 13:45
      Informatik - Übungsraum II
      Erster Veranstaltungstag: 14.04.2015
    • Übung:
      Do, 14:15 - 15:45
      Informatik - Übungsraum II
      Erster Veranstaltungstag: 23.04.2015
    • WueCampus-Kurs:
      Kurs
    • Anmeldung: Eine Anmeldung vor der ersten Vorlesung ist nicht nötig! Die genauen Einschreibemodalitäten werden in der ersten Vorlesungssitzung bekannt gegeben.
    • Prüfung SS 2015: 22.07.2015 10:15
    • Prüfung WS 2015/16: 05.10.2015 10:15 (schriftlich) oder 05./06.10.2015 mündlich, je nach Teilnehmerzahl. Anmeldung über sb@home

    Literatur

    • Knowledge Discovery in Databases: Techniken und AnwendungenEster, Martin; Sander, Jörg (2000). (1st ed.) Springer Berlin Heidelberg.
       
    • CRISP-DM 1.0 Step-by-step data mining guideChapman, Pete; Clinton, Julian; Kerber, Randy; Khabaza, Thomas; Reinartz, Thomas; Shearer, Colin; Wirth, Rudiger (2000).
       
    • Advances in Knowledge Discovery and Data Mining.Fayyad, Usama M.; Piatetsky-Shapiro, Gregory; Smyth, Padhraic; Uthurusamy, Ramasamy (1996).
       

    Weitere Literatur zur Vorlesung

    • Sequential minimal optimization: A fast algorithm for training support vector machines.Platt, J. (1998).
       
    • OPTICS: Ordering Points To Identify the Clustering Structure.Ankerst, Mihael; Breunig, Markus M.; peter Kriegel, Hans; Sander, Jörg (1999). 49--60.
       
    • On End-to-End Program Generation from User Intention by Deep Neural Networks.Mou, Lili; Men, Rui; Li, Ge; Zhang, Lu; Jin, Zhi in CoRR (2015). abs/1510.07211
       
    • Mining Frequent Patterns without Candidate Generation.Han, Jiawei; Pei, Jian; Yin, Yiwen W. Chen, Naughton, J. F., Bernstein, P. A. (eds.) (2000). 1-12.
       
    • Maximum likelihood from incomplete data via the EM algorithm.Dempster, A. P.; Laird, N. M.; Rubin, D. B. in Journal of the Royal Statistical Society: Series B (1977). 39 1-38.
       
    • Experiments with a New Boosting Algorithm.Freund, Yoav; Schapire, Robert E. (1996). 148-156.
       
    • Experimental evidence of massive-scale emotional contagion through social networks.Kramer, Adam D. I.; Guillory, Jamie E.; Hancock, Jeffrey T. in Proceedings of the National Academy of Sciences (2014). 111(24) 8788-8790.
       
    • Data Science and Prediction.Dhar, Vasant in Commun. ACM (2013). 56(12) 64--73.
       
    • Data Science and its Relationship to Big Data and Data-Driven Decision Making.Provost, Foster; Fawcett, Tom in Big Data (2013). 1(1) 51--59.
       
    • Clustering by means of medoids.Kaufman, Leonard; Rousseeuw, Peter J. (I. : D. Y; editor,, eds.) (1987). 405–416.
       
    • Bagging, Boosting, and C4.5.Quinlan, J. Ross W. J. Clancey, Weld, D. S. (eds.) (1996). 725-730.
       
    • Automatic Subspace Clustering of High Dimensional Data for Data Mining Applications.Agrawal, Rakesh; Gehrke, Johannes; Gunopulos, Dimitrios; Raghavan, Prabhakar (1998). 94--105.
       
    • A Density-Based Algorithm for Discovering Clusters in Large Spatial Databases with Noise.Ester, Martin; Kriegel, Hans-Peter; Sander, Jörg; Xu, Xiaowei (1996). 226-231.