Profesor | Guillermina Eslava Gómez | lu mi vi | 12 a 13 | 303 (Nuevo Edificio) |
Ayudante | Julio Ernesto Nava Trejo | ma ju | 12 a 13 | 303 (Nuevo Edificio) |
Seminario de Estadística grupo 9280. Salón ?, 12-13 hrs.
Guillermina Eslava, eslava@ciencias.unam.mx, cubículo 102, Dep. de Matemáticas, F.C. Ayudante: ?
Requisitos: Haber cursado y aprobado Inferencia estadística (Estadística I) y Modelos no Paramétricos y de Regresión (Estadística II, por lo menos cursarla inscrito en 2020-2). Estar familiarizado con R o con Python.
Evaluación:
i) Cada capítulo del 2-7 será evaluado con un examen–tarea, individual o en grupo, 80%.
ii) Un proyecto final, cap 8, para presentarse de forma oral y escrita, 20%.
Material del curso en: classroom
No se aceptan oyentes.
Temario
1. Introducción
i) Alcances y limitaciones del curso
ii) Lineamiento generales para la redacción y presentación de las tareas y del proyecto
2. Modelos de regresión lineal
i) Repaso del modelo de Regresión lineal múltiple
ii) Modelos con variables binarias, discretas no ordinales, contínuas y mixtas.
iii) Transformaciones e interacciones iv) Anovas
3. Aprendizaje no supervisado.
i) Introducción
ii) Ana ́lisis de Componentes Principales
iii) Análisis de conglomerados
4. Aprendizaje supervizado.
i) Introducción
ii) Regresión logística (GLM)
iii) Análisis de discriminante: lineal, Naive Bayes y k nearest neighbour iv) Support Vector Machines, SVM
5. Métodos de evaluación y selección de modelos
i) Introducción
ii) Repeated holdout iii) Cross-Validation
iv) Bootstrap
6. Selección de modelos y regularización.
i) Métodos clásicos
ii) Selección de modelos en alta dimensión
iii) Ridge regression and Lasso iv) Elastic net
v) Relaxed lasso
7. Modelos de árboles.
i) Trees (Arboles de decisión) ii) Random forest
iii) Boosting
8. Redes Neuronales (NN).
i) One-layer ii) Multilayer
iii) Introducción a Deep learning (deep NN)
9. Modelos gráficos probabilísticos. Si el tiempo lo permite.
i) Redes Markovianas (Modelos gr ́aficos no dirigidos) ii) Redes Bayesianas (Modelos gr ́aficos dirigidos)
Bibliografía
Efron, B., Hastie, T. (2016). Computer Age Statistical Inference. Algorithms, Evidence and Data Science. Cambridge University Press. Texto disponible en la página de los autores
Hastie, T., Tibshirani, R., Friedman, J. (2009). The Elements of Statistical Learning. Data Mining, Inference, and Prediction, 2nd ed., Springer. Texto a seguir en el curso y disponible en Springer a trav ́es de la UNAM
Hastie, T., Tibshirani, R., Wainwright, M. (2015). Statistical Learning with Sparsity. The lasso and generalizations. Chapman and Hall.
James, G., Witten, D., Hastie, T., Tibshirani, R. (2013). An introduction to Statistical Learning. With applications in R, Springer. Texto a seguir en el laboratorio del curso y disponible en Springer a trav ́es de la UNAM
Ripley, B.D. (1996). Pattern Recognition and Neural Networks. Cambridge University Press.
Strang G. (2019). Linear Algebra and Learning from Data. CUP
Venables, W.N. and Ripley, B.D. (2002). Modern Applied Statistics with S. Springer–Verlag.
Cursos en linea. E.g.:
Hastie & Tibshirani: https://www.r-bloggers.com/in-depth-introduction-to-machine-learning- in-15-hours-of-expert- videos/
G. Strang: https://ocw.mit.edu/courses/mathematics/18-065-matrix-methods-in-data-analysis- signal-processing-and-machine-learning-spring-2018/video-lectures/