Profesor | Guillermina Eslava Gómez | lu mi vi | 12 a 13 |
Ayudante | Bernardo Flores López | ma ju | 12 a 13 |
Seminario de Estadística de 12-13 hrs. Online a la hora de clase por google.meet.
Guillermina Eslava, eslava@ciencias.unam.mx, cubículo 102, Dep. de Matemáticas, F.C.
Ayudante: Bernardo Flores, bernardo.flores@ciencias.unam.mx.
Requisitos: Haber cursado y aprobado Inferencia estadística y Modelos no Paramétricos y de Regresión.
Estar familiarizado con R.
Material del curso en: https://classroom.google.com/c/MjU2ODY5ODI4OTMx
Clases en línea en: https://meet.google.com/cya-wwyp-qoa
Evaluación:
i) Cada capítulo del 1-6 será evaluado con un examen--tarea, individual o en grupo, 80%
ii) Un proyecto final, cap 7, para presentarse de forma oral y escrita, 20%.
No se aceptan oyentes. El trabajo es intenso y sostenido a lo largo del curso tanto para los profesores como para los estudiantes.
0. Introducción
i) Alcances y limitaciones del curso
ii) Manejo de datos en R
iii) Introducción a latex
iv) Lineamiento generales para la redacción y presentación de las tareas y del proyecto
1. Modelo de regresión lineal
i) Repaso del modelo de Regresión lineal múltiple
ii) Modelos con variables continuas, binarias, discretas, y mixtas.
iii) Transformaciones e interacciones
iv) Anovas
2. Aprendizaje no supervisado
i) Introducción
ii) Análisis de Componentes Principales
iii) Análisis de conglomerados
3. Métodos de evaluación y selección de modelos
i) Introducción
ii) Training/test/validation sets
iii) Bias/variance trade-off
iv) Generalization and overfitting
v) Repeated train/test
vi) Cross-Validation
vii) Bootstrap
4. Aprendizaje supervisado.
i) Introducción
ii) Regresión logística (GLM)
iii) Análisis de discriminante: lineal, Naive Bayes y k nearest neighbour
iv) Support Vector Machines, SVM
5. Modelos de árboles.
i) Trees (árboles de decisión)
ii) Random forest
iii) Boosting
6. Selección de modelos y regularización.
i) Métodos clásicos
ii) Selección de modelos en alta dimensión
iii) Ridge regression and Lasso
iv) Elastic net
v) Relaxed lasso
7. Redes Neuronales ( NN).
i) One-layer
ii) Introducción a Deep learning (deep NN: Multilayer & Convolutional )
Bibliografía
Agresti, A. (2015). Foundations of Linear and Generalized Linear Models. Wiley.
Denuit M., Hainaut D., and Trufin J. (2019). Effective Statistical Learning Methods for Actuaries I. Springer.
Efron, B., Hastie, T. (2016). Computer Age Statistical Inference. Algorithms, Evidence and Data Science. Cambridge University Press. Texto disponible en la página de los autores.
Goodfellow, I., Bengio, Y., and Courville A. (2016). Deep Learning. MIT Press.
Grolemund, G and Wickham H. “R for Data Science” . RDS.
Hastie, T., Tibshirani, R., Friedman, J. (2009). The Elements of Statistical Learning. Data Mining, Inference, and Prediction, 2nd ed., Springer. Disponible en Springer a través de la UNAM.
Hastie, T., Tibshirani, R., Wainwright, M. (2015). Statistical Learning with Sparsity. The lasso and generalizations. Chapman and Hall.
James, G., Witten, D., Hastie, T., Tibshirani, R. (2013). An Introduction to Statistical Learning. With applications in R, Springer. Texto a seguir en el laboratorio del curso y disponible en Springer a través de la UNAM
Strang G. (2019). Linear Algebra and Learning from Data. CUP
Sundberg, R. (2019). Statistical Modelling by Exponential Families. ims, CUP
Venables, W.N. and Ripley, B.D. (2002). Modern Applied Statistics with S. Springer-Verlag.
Wickham, H. (2019). Advanced R. CRC Press, Second ed.
Curso en linea impartido por Hastie & Tibshirani:
https://www.r-bloggers.com/in-depth-introduction-to-machine-learning-in-15-hours-of-expert-videos/