Κυρτή Βελτιστοποίηση και Εφαρμογές στη Μηχανική Μάθηση
Περιγραφή εβδομάδας
- Γενικά
Γενικά
Το μάθημα προσφέρεται στα πλαίσια του ΔΠΜΣ "Επιστήμη Δεδομένων και Μηχανική Μάθηση". Εδώ θα βρείτε σημειώσεις και διαφάνειες για το δεύτερο μέρος του μαθήματος που εστιάζει στη Θεωρία της Μηχανικής Μάθησης και στις εφαρμογές της Κυρτής Βελτιστοποίησης στη Μηχανική Μάθηση.
Οι διαλέξεις γίνονται κάθε Δευτέρα, ώρα 15:15-18:00, μέσω WebEx στο link: https://centralntua.webex.com/centralntua/j.php?MTID=md277b24f859f4fef245263940338869a
Διδάσκοντες
- Κωνσταντίνος Χρυσαφίνος, Αναπλ. Καθηγητής
- Δημήτρης Φωτάκης, Αναπλ. Καθηγητής
Βιβλιογραφία και Σχετικά Μαθήματα- Shai Shalev-Shwartz and Shai Ben-David. Understanding Machine Learning: From Theory to Algorithms. Cambridge University Press, 2014.
- Shai Shalev-Shwartz. Online Learning and Online Convex Optimization. Foundations and Trends in Machine Learning. Vol. 4(2): 107–194, 2011.
- Elad Hazan. Introduction to Online Convex Optimization. Foundations and Trends in Optimization. Vol. 2(3-4): 157-325, 2015.
- Διαλέξεις@youtube του Machine Learning μαθήματος από τον Shai Ben-David, University of Waterloo, 2015.
- Μάθημα Machine Learning από τον Shai Shalev-Shwartz, The Hebrew University of Jerusalem, 2014.
- 10 May - 16 May
10 May - 16 May
Διάλεξη 10/5: PAC Learning, Empirical Risk Minimization, VC dimension
- Εισαγωγή, learning finite hypothesis classes (και πως μπορούμε να προσομοιώσουμε αποδοτικά τον Halving σε d-διάστατο grid)
- PAC learning, Empirical Risk Minimization (ERM).
- VC-dimension.
Προτεινόμενη μελέτη:
- Διαφάνειες (set1 και set2).
- Κεφάλαια 1-3 από Understanding Machine Learning.
- Προαιρετικά (εξειδικευμένο και τεχνικά δύσκολο): Online Learning by the Ellipsoid Method
(ΠΡΟΣΟΧΗ: Απαιτείται συνθηματικό για την πρόσβαση. Το υλικό των διαλέξεων προορίζεται αποκλειστικά για προσωπική χρήση των φοιτητών του μαθήματος και δεν επιτρέπεται η ανάρτησή του ή μεταφόρτωσή του σε οποιοδήποτε άλλο site ή μέσο).
- 17 May - 23 May
17 May - 23 May
Διάλεξη 17/5: Agnostic PAC Learning, Online Learning
- VC-dimension, παραδείγματα, το θεμελιώδες θεώρημα του Statistical Learning.
- Agnostic PAC Learning
- Learning via uniform convergence.
- Bias-Complexity tradeoff
- Loss functions, ERM and convex optimization.
- Online Learning.
Προτεινόμενη μελέτη:
- Διαφάνειες: set1 (χωρίς το κομμάτι του Linear Regression), set2 (μέχρι σελ. 21) και set3.
- Κεφάλαια 4 και 6 από Understanding Machine Learning.
- Tutorial του Elad Hazan, Optimization and Machine Learning.
(ΠΡΟΣΟΧΗ: Απαιτείται συνθηματικό για την πρόσβαση. Το υλικό των διαλέξεων προορίζεται αποκλειστικά για προσωπική χρήση των φοιτητών του μαθήματος και δεν επιτρέπεται η ανάρτησή του ή μεταφόρτωσή του σε οποιοδήποτε άλλο site ή μέσο).
- 24 May - 30 May
24 May - 30 May
Διάλεξη 24/5: PAC Learning, Online Learning and Online Convex Optimization
- Σύντομη επανάληψη προηγούμενης διάλεξης (ERM, representative sets, σύνδεση Agnostic PAC Learning με Convex Optimization, Gradient Descent)
- Online learning, online convex optimization, regret, no-regret αλγόριθμοι.
- Follow the Leader: ορισμός και ανάλυση του regret.
- Ο ρόλος της ισχυρής κυρτότητας στην ευστάθεια αλγορίθμων της μορφής Follow the Leader.
- Regularization.
- Follow the regularized Leader: ορισμός, παραμετροποίηση με βάση τον regularizer, ανάλυση του regret.
Προτεινόμενη μελέτη:
- Διαφάνειες.
- Σημειώσεις Μ. Ζαμπετάκη.
- Σημειώσεις Β. Συργκάνη.
- Κεφάλαιο 1 και ενότητες 2.1 - 2.5 από Online Learning and Online Convex Optimization.
(ΠΡΟΣΟΧΗ: Απαιτείται συνθηματικό για την πρόσβαση. Το υλικό των διαλέξεων προορίζεται αποκλειστικά για προσωπική χρήση των φοιτητών του μαθήματος και δεν επιτρέπεται η ανάρτησή του ή μεταφόρτωσή του σε οποιοδήποτε άλλο site ή μέσο).
- 31 May - 6 June
31 May - 6 June
Διάλεξη 31/5: Online Convex Optimization, Online Gradient Descent, Stochastic Gradient Descent
- Εκτενής επανάληψη προηγούμενης διάλεξης (Online Learning, Online Convex Optimization, Follow the Leader, regret analysis, ο ρόλος του regularization, Follow the Regularized Leader).
- Be the Regularized Leader και regret ανάλυση του Follow the Regularized Leader στη γενική περίπτωση του Online Convex Optimization.
- Online Gradient Descent, ανάλυση για convex και strongly convex συναρτήσεις.
- Stochastic Gradient Descent, ανάλυση με αναγωγή στην ανάλυση της Online Gradient Descent.
Προτεινόμενη μελέτη:
- Σύνοψη διάλεξης σε διαφάνειες.
- Κεφάλαια 12, 13 και 14 από Understanding Machine Learning.
- Σημειώσεις Β. Συργκάνη (δείτε μόνο το πρώτο μέρος).
- Ενότητες 2.1 και 2.2, και κεφάλαιο 3 από Online Convex Optimization.
- Δείτε ακόμη τις διαφάνειες Shalev-Shwartz (διαφ. 1-23) για τον ρόλος του regularization στη βελτιστοποίηση υποθέσεων στο Machine Learning και τις διαφάνειες Shalev-Shwartz για μια πιο λεπτομερή παρουσίαση της Stochastic Gradient Descent και των εφαρμογών της στο Machine Learning.
(ΠΡΟΣΟΧΗ: Απαιτείται συνθηματικό για την πρόσβαση. Το υλικό των διαλέξεων προορίζεται αποκλειστικά για προσωπική χρήση των φοιτητών του μαθήματος και δεν επιτρέπεται η ανάρτησή του ή μεταφόρτωσή του σε οποιοδήποτε άλλο site ή μέσο).