Profesor | Guillermina Eslava Gómez | lu mi vi | 17 a 18 |
Ayudante | Sofía Guzmán León | ma ju | 17 a 18 |
Utilizar correo del dominio @ciencias.unam.mx
Aprendizaje estadístico automatizado
Class code bc7tfqk
Seminario de Estadística Grupo 9269 de 17-18hrs . Online a la hora de clase por google.meet.
Guillermina Eslava, eslava@ciencias.unam.mx, cubículo 102, Dep. de Matemáticas, F.C.
Ayudante: Jonnhatan Gutiérrez Ortíz, john.go@ciencias.unam.mx.
Requisitos: Haber cursado y aprobado Inferencia estadística, y Modelos no Paramétricos y de Regresión.
Estar familiarizado con R o con Python.
Material del curso en: google.classroom
Evaluación:
i) Cada capítulo del 1-6 será evaluado con un examen--tarea, individual o en grupo, 80%
ii) Un proyecto final, cap 7, para presentarse de forma oral y escrita, 20%.
No se aceptan oyentes. El trabajo es intenso y sostenido a lo largo del curso tanto para los profesores como para los estudiantes.
0. Introducción
i) Alcances y limitaciones del curso
ii) Manejo de datos en R
iii) Introducción a latex
iv) Lineamiento generales para la redacción y presentación de las tareas y del proyecto
1. Modelo de regresión lineal
i) Repaso del modelo de Regresión lineal múltiple
ii) Modelos con variables continuas, binarias, discretas, y mixtas.
iii) Transformaciones e interacciones
iv) Anovas
2. Aprendizaje no supervisado
i) Introducción
ii) Análisis de Componentes Principales
iii) Análisis de conglomerados
3. Métodos de evaluación y selección de modelos
i) Introducción
ii) Training/test/validation sets
iii) Bias/variance trade-off
iv) Generalization and overfitting
v) Repeated train/test
vi) Cross-Validation
vii) Bootstrap
4. Aprendizaje supervisado.
i) Introducción
ii) Regresión logística (GLM)
iii) Análisis de discriminante: lineal, Naive Bayes y k nearest neighbour
iv) Support Vector Machines, SVM
5. Modelos de árboles.
i) Trees (Arboles de decisión)
ii) Random forest
iii) Boosting
6. Selección de modelos y regularización.
i) Métodos clásicos
ii) Selección de modelos en alta dimensión
iii) Ridge regression and Lasso
iv) Elastic net
v) Relaxed lasso
7. Redes Neuronales ( NN).
i) One-layer
ii) Introducción a Deep learning (deep NN: Multilayer & Convolutional )
Bibliografía
Agresti, A. (2015). Foundations of Linear and Generalized Linear Models. Wiley.
Efron, B., Hastie, T. (2016). Computer Age Statistical Inference. Algorithms, Evidence and Data Science. Cambridge University Press. Texto disponible en la página de los autores.
Goodfellow, I., Bengio, Y., and Courville A. (2016). Deep Learning. MIT Press.
Hastie, T., Tibshirani, R., Friedman, J. (2009). The Elements of Statistical Learning. Data Mining, Inference, and Prediction, 2nd ed., Springer. Disponible en Springer a través de la UNAM.
Hastie, T., Tibshirani, R., Wainwright, M. (2015). Statistical Learning with Sparsity. The lasso and generalizations. Chapman and Hall.
James, G., Witten, D., Hastie, T., Tibshirani, R. (2013). An Introduction to Statistical Learning. With applications in R, Springer. Texto a seguir en el laboratorio del curso y disponible en Springer a través de la UNAM
Ripley, B.D. (1996). Pattern Recognition and Neural Networks. Cambridge University Press.
Strang G. (2019). Linear Algebra and Learning from Data. CUP
Venables, W.N. and Ripley, B.D. (2002). Modern Applied Statistics with S. Springer-Verlag.
Curso en linea impartido por Hastie & Tibshirani:
https://www.r-bloggers.com/in-depth-introduction-to-machine-learning-in-15-hours-of-expert-videos/