Profesor | Guillermina Eslava Gómez | lu mi vi | 12 a 13 |
Ayudante | César Zarco Romero | ma ju | 12 a 13 |
Guillermina Eslava, eslava@ciencias.unam.mx, cubículo 102, Dep. de Mat., Facultad de Ciencias (FC). Ayudante: César Zarco Romero, cesarzarco@ciencias.unam.mx Horario: Lunes, Miércoles y Viernes 12-13 hrs.
Requisitos: Haber cursado y aprobado Inferencia estadística, y Modelos no Paramétricos y de Regresión. Estar familiarizado con R o con Python.
Material del curso en: Classroom.
Evaluación: Cada capítulo del 1-6 será evaluado con un examen-tarea, individual o por equipo, 80 %. Un proyecto final que incluye el cap 7, para presentarse de forma oral y escrita, 20 %. No hay reposiciones. Examen final individual si es requerido.
0. Introducción
i) Alcances y limitaciones del curso
ii) Lineamiento generales para la redacción y presentación de las tareas y del proyecto final.
1. Modelo de regresión lineal
i) Repaso del modelo de Regresión lineal múltiple con variables continuas, binarias, discretas, y mixtas. Anovas.
2. Aprendizaje no supervisado.
i) Introducción
ii) Análisis de Componentes Principales
iii) Análisis de conglomerados
3. Métodos de evaluación y selección de modelos
i) Introducción
ii) Training/test/validation sets
iii) Bias/variance trade-off
iv) Generalization and overfitting
v) Repeated holdout
vi) Cross-Validation
vii) Bootstrap
4. Aprendizaje supervizado.
i) Introducción
ii) Regresión logística (GLM)
iii) Análisis de discriminante: lineal, Naive Bayes y k nearest neighbour
iv) Support Vector Machines, SVM
5. Modelos de árboles.
i) Trees (Árboles de decisión)
iii) Random forest
iv) Boosting
6. Selección de modelos y regularización.
i) Métodos clásicos
ii) Selección de modelos en alta dimensión
iii) Ridge regression and Lasso
iv) Elastic net
v) Relaxed lasso
7. Redes Neuronales (NN)
i) One-layer
ii) Introducción a Deep learning (deep NN: Multilayer & Convolutional)
Bibliografía
Agresti, A. (2015). Foundations of Linear and Generalized Linear Models. Wiley.
Agresti, A. and Kateri M. (2021). Foundations of Statistics for Data Scientists: With R and Python. Chapman and Hall.
Efron, B., Hastie, T. (2016). Computer Age Statistical Inference. Algorithms, Evidence and Data Science. Cambridge University Press. Texto disponible en la página de los autores.
Grolemund, G and Wickham H. “R for Data Science”. RDS.
Hastie, T., Tibshirani, R., Friedman, J. (2009). The Elements of Statistical Learning. Data Mining, Inference, and Prediction, 2nd ed., Springer. Disponible en Springer a través de la UNAM.
Hastie, T., Tibshirani, R., Wainwright, M. (2015). Statistical Learning with Sparsity. The lasso and generalizations. Chapman and Hall.
James, G., Witten, D., Hastie, T., Tibshirani, R. (2021). An Introduction to Statistical Learning. With applications in R, Springer. Second edition. Texto a seguir en el laboratorio del curso y disponible en Springer a través de la UNAM.
Venables, W.N. and Ripley, B.D. (2002). Modern Applied Statistics with S. Springer--Verlag.
Curso en línea impartido por Hastie & Tibshirani:
https://www.r-bloggers.com/in-depth-introduction-to-machine-learning-in-15-hours-of-expert-videos/