Encabezado Facultad de Ciencias
Presentación

Actuaría (plan 2015) 2020-2

Optativas, Seminario de Estadística I

Grupo 9280, 35 lugares. 26 alumnos.
Aprendizaje Estadístico Automatizado (Statistical Machine Learning)
Profesor Guillermina Eslava Gómez lu mi vi 12 a 13 303 (Nuevo Edificio)
Ayudante Julio Ernesto Nava Trejo ma ju 12 a 13 303 (Nuevo Edificio)
 

Aprendizaje estadístico automatizado (Statistical Machine learning) Licenciatura, 2020-2.

Seminario de Estadística grupo 9280. Salón ?, 12-13 hrs.
Guillermina Eslava, eslava@ciencias.unam.mx, cubículo 102, Dep. de Matemáticas, F.C. Ayudante: ?

Requisitos: Haber cursado y aprobado Inferencia estadística (Estadística I) y Modelos no Paramétricos y de Regresión (Estadística II, por lo menos cursarla inscrito en 2020-2). Estar familiarizado con R o con Python.

Evaluación:
i) Cada capítulo del 2-7 será evaluado con un examen–tarea, individual o en grupo, 80%.
ii) Un proyecto final, cap 8, para presentarse de forma oral y escrita, 20%.

Material del curso en: classroom
No se aceptan oyentes.

Temario

1. Introducción
i) Alcances y limitaciones del curso
ii) Lineamiento generales para la redacción y presentación de las tareas y del proyecto

2. Modelos de regresión lineal
i) Repaso del modelo de Regresión lineal múltiple
ii) Modelos con variables binarias, discretas no ordinales, contínuas y mixtas.
iii) Transformaciones e interacciones iv) Anovas

3. Aprendizaje no supervisado.
i) Introducción
ii) Ana ́lisis de Componentes Principales
iii) Análisis de conglomerados

4. Aprendizaje supervizado.
i) Introducción
ii) Regresión logística (GLM)
iii) Análisis de discriminante: lineal, Naive Bayes y k nearest neighbour iv) Support Vector Machines, SVM

5. Métodos de evaluación y selección de modelos
i) Introducción
ii) Repeated holdout iii) Cross-Validation
iv) Bootstrap

6. Selección de modelos y regularización.
i) Métodos clásicos
ii) Selección de modelos en alta dimensión
iii) Ridge regression and Lasso iv) Elastic net
v) Relaxed lasso

7. Modelos de árboles.
i) Trees (Arboles de decisión) ii) Random forest
iii) Boosting

8. Redes Neuronales (NN).
i) One-layer ii) Multilayer
iii) Introducción a Deep learning (deep NN)

9. Modelos gráficos probabilísticos. Si el tiempo lo permite.
i) Redes Markovianas (Modelos gr ́aficos no dirigidos) ii) Redes Bayesianas (Modelos gr ́aficos dirigidos)

Bibliografía

Efron, B., Hastie, T. (2016). Computer Age Statistical Inference. Algorithms, Evidence and Data Science. Cambridge University Press. Texto disponible en la página de los autores

Hastie, T., Tibshirani, R., Friedman, J. (2009). The Elements of Statistical Learning. Data Mining, Inference, and Prediction, 2nd ed., Springer. Texto a seguir en el curso y disponible en Springer a trav ́es de la UNAM

Hastie, T., Tibshirani, R., Wainwright, M. (2015). Statistical Learning with Sparsity. The lasso and generalizations. Chapman and Hall.

James, G., Witten, D., Hastie, T., Tibshirani, R. (2013). An introduction to Statistical Learning. With applications in R, Springer. Texto a seguir en el laboratorio del curso y disponible en Springer a trav ́es de la UNAM

Ripley, B.D. (1996). Pattern Recognition and Neural Networks. Cambridge University Press.

Strang G. (2019). Linear Algebra and Learning from Data. CUP

Venables, W.N. and Ripley, B.D. (2002). Modern Applied Statistics with S. Springer–Verlag.

Cursos en linea. E.g.:
Hastie & Tibshirani: https://www.r-bloggers.com/in-depth-introduction-to-machine-learning- in-15-hours-of-expert- videos/
G. Strang: https://ocw.mit.edu/courses/mathematics/18-065-matrix-methods-in-data-analysis- signal-processing-and-machine-learning-spring-2018/video-lectures/

 


Hecho en México, todos los derechos reservados 2011-2016. Esta página puede ser reproducida con fines no lucrativos, siempre y cuando no se mutile, se cite la fuente completa y su dirección electrónica. De otra forma requiere permiso previo por escrito de la Institución.
Sitio web administrado por la Coordinación de los Servicios de Cómputo de la Facultad de Ciencias. ¿Dudas?, ¿comentarios?. Escribenos. Aviso de privacidad.